fehlerrechnung von Regr.-Grade < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo!
Ich habe da mal eine Frage.
Angenommen, ich habe eine Reihe von (x;y) Meßwerten mit linearem zusammenhang.
Mittels Regression kann ich da nun eine Grade durchlegen.
Aber wie berechne ich den Fehler von Steigung und y-Achsenabschnitt? Die xy-Werte haben ja auch Fehlerbereiche!
|
|
|
|
Hmm. Ich weiß nicht ganz genau, ob ich richtig verstanden habe, was Du machen willst. Bei einer linearen Regression geht man ja immer davon aus, daß es eine "wahre Gerade" gibt, die den Zusammenhang exakt beschreibt. Natürlich kann es keine Gerade geben, die alle Punkte miteinander verbindet, da die Punkte ja streuen. Genau deswegen macht man ja eine Regressionsgerade, um zumindest näherungsweise eine solche Gerade abzuschätzen. Um nun die Differenz der geschätzten Gerade zur wahren Gerade errechnen zu können, müsste man aber die wahre Gerade kennen. Da diese aber nicht existiert, kann eine solche Differenz auch nicht berechnet werden.
Trotzdem gibt es verschiedene Maße, die Güte der Regression zu quantifizieren. So kannst Du Dir die Residuenquadratsumme anschauen, also die Abweichung der geschätzten Gerade von den gemessenen Punkten, diese quadrieren und aufsummieren.
|
|
|
|
|
Natürlich liefert die Regression die beste Grade.
Und natürlich kennen wir die theoretisch erwartete Grade normalerweise NICHT.
ich möchte nun aber keinen Wert für die Abweichung von der theoretischen Grade haben, sondern einen Wert, der mir sagt, mit welcher Genauigkeit diese Grade bestimmt ist, aufgrund der gegebenen Genauigkeit der Meßwerte.
Ach, was solls. Ein Beispiel:
[Dateianhang nicht öffentlich]
Hier sind drei Datenpunkte. Sie liegen wunderbar auf einer Graden, und das rote ist auch die Regressionsgrade.
Aufgrund vom Meßungenauigkeiten haben die Datenpunkte allerdings Fehler, wie die Fehlerbalken zeigen.
Eine Methode, in so einem guten Fall den fehler der Graden zu bestimmen ist, diese beiden schwarzen Funktionen durch die Fehlerbalken zu zeichnen, dann sieht man ja die maximale Abweichung und damit hat man auch eine fehlerabschätzung.
Das funktioniert gut, solange die Datenpunkte wirklich so perfekt liegen. Wenn man nun aber recht starke Fluktuationen hat, sodaß das ganze eher einer Wolke gleicht, ist dieses Verfahren relativ... mau. Außerdem gilt das nur für kleine Fehler, denn die Steigung ist ja nun nicht wirklich linear zum Winkel der Graden.
Eine andere Methode ist, die einzelnen Steigungen zwischen je zwei benachbarten Punkten zu berechnen, und aus den dann gewonnenen Werten EINER Größe Mittelwert und Standardabweichung zu berechnen. Auch das liefert bei schönen Fits schöne Werte, aber sobald die Punkte wieder eher in einer Wolke liegen, kann man auch das vergessen.
Ich dachte, es gibt eine Standardmethode, aus dem gegebenen Fehler (der i.d.R. für x und y gegeben ist), die Fehler für die Grade zu bestimmen.
Dateianhänge: Anhang Nr. 1 (Typ: png) [nicht öffentlich]
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:58 Do 07.09.2006 | Autor: | BAGZZlash |
Also, Gütekriterien für Modelfits (wie gut passt die Regressionsgerade zur Punktewolke) hängen vom Schätzverfahren ab. Bei OLS gibt's z.B. das Bestimmtheitsmaß R², ohne Konstante ein passendes Pseudo-R² oder bei ML auch den Chi²-Wert. Schau mal in ein Statistikbuch.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:33 Do 07.09.2006 | Autor: | luis52 |
Ein haeufig angewandtes Verfahren ist die Methode der KLeinsten Quadrate,
die schon auf den ollen Gauss zurueckgeht. Danach wird die Steigung nach
[mm]\hat \beta_2=\sum_i(x_i-\bar x)(y_i-\bar y)/\sum_i(x_i-\bar x)^2[/mm]
und der Achsenabschnitt nach [mm] \hat \beta_1=\bar y-\hat\beta_2\bar x[/mm] berechnet.
Du stellst hier sehr gescheite Frage, die aber nicht so ohne weiteres
beantwortet werden koennen, da du anscheinend von Statistik noch nicht so
viel weisst. In der Tat, man kann den Fehler beispielsweise von [mm]\hat
\beta_2[/mm] mit Hilfe der sog. Varianz beschreiben, die unter
geeigneten Annahmen gegeben ist durch [mm]Var[\hat
\beta_2]=\sigma^2/\sum_i(x_i-\bar x)^2[/mm]. Dabei beschreibt
[mm]\sigma^2[/mm] die Ungenauigkeit (Varianz) vielleicht eines
Messgeraets
(du bist Physiker?). Man erkennt an dieser Formel noch, dass die
Genauigkeit verbessert werden kann, wenn die x-Daten streuen, denn dann
ist [mm]\sum_i(x_i-\bar x)^2[/mm] gross und folglich [mm]Var[\hat
\beta_2][/mm] klein. Ich hoffe, das hilft dir etwas weiter, ansonsten
kann ich mich nur der Empfehlung von BAGZZlash anschliessen.
|
|
|
|
|
Naja, sagen wir so:
Ich bin Physiker, ich brauch sowas wie Standardabweichung, lin. Regression und Gaußsche Fehlerfortpflanzung.
Was das ist, weiß ich, doch benutzen tu ich dafür dann doch immer nur den Rechner. Vor allem, wenn man dann Gauß- und Lorenzkurven fittet, ists mit dem Taschenrechner vorbei. Der Rechner gibt einem dann schöne Fehlerwerte, plus r bzw [mm] $\Chi^2/DOF$.
[/mm]
Am Anfang des Studiums hab ich so nette Praktika gemacht, wo es bei der Auswertung von Experimenten eigentlich um genau das hier ging, und wir haben das auf die hier genannten etwas unprofessionellen Arten berechnet.
Heute bin ich Leiter einer Praktikumsgruppe, und nu frag ich mich auch schon, wie man's besser machen kann.
Hab nu auch ein paar Formeln gefunden:
[mm] $D=n\summe x_i^2 [/mm] - [mm] \left(\summe x_i\right)^2$
[/mm]
Damit kann man auch die lin Regression machen:
$y=mx+b$
[mm] $m=\bruch{n\summe x_iy_i - \summe x_i\summe y_i}{D}$
[/mm]
[mm] b=\bruch{\summe x_i^2\summe y_i - \summe x_i\summe y_ix_i}{D}
[/mm]
das aber nur nebenbei.
Die "Mittelwertgrade", wie man das nennt, ist
[mm] $s_y=\wurzel{\bruch{\summe(y_i-(mx_i+b))^2}{n-2}}$
[/mm]
Hieraus ergeben sich nun genau die Fehler:
[mm] $\Delta m=s_y\wurzel{\bruch{n}{D}}$
[/mm]
[mm] $\Delta b=s_y\wurzel{\bruch{\summe x_i^2}{D}}$
[/mm]
Gut, das ist nicht so ganz das, was ich hören bzw lesen wollte, denn das ist rechnerisch dann doch schon relativ aufwändig und in der gegebenen Zeit des Praktikums nicht machbar.
Ich dank euch auf jeden Fall.
|
|
|
|