www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Statistik (Anwendungen)" - fehlerrechnung von Regr.-Grade
fehlerrechnung von Regr.-Grade < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Statistik (Anwendungen)"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

fehlerrechnung von Regr.-Grade: y=mx+b Fehler von m, b?
Status: (Frage) beantwortet Status 
Datum: 00:06 Do 07.09.2006
Autor: Event_Horizon

Hallo!

Ich habe da mal eine Frage.


Angenommen, ich habe eine Reihe von (x;y) Meßwerten mit linearem zusammenhang.

Mittels Regression kann ich da nun eine Grade durchlegen.

Aber wie berechne ich den Fehler von Steigung und y-Achsenabschnitt? Die xy-Werte haben ja auch Fehlerbereiche!

        
Bezug
fehlerrechnung von Regr.-Grade: Antwort
Status: (Antwort) fertig Status 
Datum: 13:52 Do 07.09.2006
Autor: BAGZZlash

Hmm. Ich weiß nicht ganz genau, ob ich richtig verstanden habe, was Du machen willst. Bei einer linearen Regression geht man ja immer davon aus, daß es eine "wahre Gerade" gibt, die den Zusammenhang exakt beschreibt. Natürlich kann es keine Gerade geben, die alle Punkte miteinander verbindet, da die Punkte ja streuen. Genau deswegen macht man ja eine Regressionsgerade, um zumindest näherungsweise eine solche Gerade abzuschätzen. Um nun die Differenz der geschätzten Gerade zur wahren Gerade errechnen zu können, müsste man aber die wahre Gerade kennen. Da diese aber nicht existiert, kann eine solche Differenz auch nicht berechnet werden.
Trotzdem gibt es verschiedene Maße, die Güte der Regression zu quantifizieren. So kannst Du Dir die Residuenquadratsumme anschauen, also die Abweichung der geschätzten Gerade von den gemessenen Punkten, diese quadrieren und aufsummieren.

Bezug
                
Bezug
fehlerrechnung von Regr.-Grade: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:22 Do 07.09.2006
Autor: Event_Horizon

Natürlich liefert die Regression die beste Grade.

Und natürlich kennen wir die theoretisch erwartete Grade normalerweise NICHT.

ich möchte nun aber keinen Wert für die Abweichung von der theoretischen Grade haben, sondern einen Wert, der mir sagt, mit welcher Genauigkeit diese Grade bestimmt ist, aufgrund der gegebenen Genauigkeit der Meßwerte.


Ach, was solls. Ein Beispiel:

[Dateianhang nicht öffentlich]

Hier sind drei Datenpunkte. Sie liegen wunderbar auf einer Graden, und das rote ist auch die Regressionsgrade.

Aufgrund vom Meßungenauigkeiten haben die Datenpunkte allerdings Fehler, wie die Fehlerbalken zeigen.


Eine Methode, in so einem guten Fall den fehler der Graden zu bestimmen ist, diese beiden schwarzen Funktionen durch die Fehlerbalken zu zeichnen, dann sieht man ja die maximale Abweichung und damit hat man auch eine fehlerabschätzung.

Das funktioniert gut, solange die Datenpunkte wirklich so perfekt liegen. Wenn man nun aber recht starke Fluktuationen hat, sodaß das ganze eher einer Wolke gleicht, ist dieses Verfahren relativ... mau. Außerdem gilt das nur für kleine Fehler, denn die Steigung ist ja nun nicht wirklich linear zum Winkel der Graden.


Eine andere Methode ist, die einzelnen Steigungen zwischen je zwei benachbarten Punkten zu berechnen, und aus den dann gewonnenen Werten EINER Größe Mittelwert und Standardabweichung zu berechnen. Auch das liefert bei schönen Fits schöne Werte, aber sobald die Punkte wieder eher in einer Wolke liegen, kann man auch das vergessen.

Ich dachte, es gibt eine Standardmethode, aus dem gegebenen Fehler (der i.d.R. für x und y gegeben ist), die Fehler für die Grade zu bestimmen.

Dateianhänge:
Anhang Nr. 1 (Typ: png) [nicht öffentlich]
Bezug
                        
Bezug
fehlerrechnung von Regr.-Grade: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 16:58 Do 07.09.2006
Autor: BAGZZlash

Also, Gütekriterien für Modelfits (wie gut passt die Regressionsgerade zur Punktewolke) hängen vom Schätzverfahren ab. Bei OLS gibt's z.B. das Bestimmtheitsmaß R², ohne Konstante ein passendes Pseudo-R² oder bei ML auch den Chi²-Wert. Schau mal in ein Statistikbuch.

Bezug
        
Bezug
fehlerrechnung von Regr.-Grade: Antwort
Status: (Antwort) fertig Status 
Datum: 17:33 Do 07.09.2006
Autor: luis52

Ein haeufig angewandtes Verfahren ist die Methode der KLeinsten Quadrate,
die schon auf den ollen Gauss zurueckgeht.  Danach wird die Steigung nach
[mm]\hat \beta_2=\sum_i(x_i-\bar x)(y_i-\bar y)/\sum_i(x_i-\bar x)^2[/mm]
und der Achsenabschnitt nach [mm] \hat \beta_1=\bar y-\hat\beta_2\bar x[/mm] berechnet.

Du stellst hier sehr gescheite Frage, die aber nicht so ohne weiteres
beantwortet werden koennen, da du anscheinend von Statistik noch nicht so
viel weisst.  In der Tat, man kann den Fehler beispielsweise von [mm]\hat \beta_2[/mm] mit Hilfe der sog.  Varianz beschreiben, die unter
geeigneten Annahmen gegeben ist durch [mm]Var[\hat \beta_2]=\sigma^2/\sum_i(x_i-\bar x)^2[/mm].  Dabei beschreibt
[mm]\sigma^2[/mm] die Ungenauigkeit (Varianz) vielleicht eines
Messgeraets
(du bist Physiker?). Man erkennt an dieser Formel noch, dass die
Genauigkeit verbessert werden kann, wenn die x-Daten streuen, denn dann
ist [mm]\sum_i(x_i-\bar x)^2[/mm] gross und folglich [mm]Var[\hat \beta_2][/mm] klein. Ich hoffe, das hilft dir etwas weiter, ansonsten
kann ich mich nur der Empfehlung von BAGZZlash anschliessen.


Bezug
                
Bezug
fehlerrechnung von Regr.-Grade: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:43 Do 07.09.2006
Autor: Event_Horizon

Naja, sagen wir so:

Ich bin Physiker, ich brauch sowas wie Standardabweichung, lin. Regression und Gaußsche Fehlerfortpflanzung.

Was das ist, weiß ich, doch benutzen tu ich dafür dann doch immer nur den Rechner. Vor allem, wenn man dann Gauß- und Lorenzkurven fittet, ists mit dem Taschenrechner vorbei. Der Rechner gibt einem dann schöne Fehlerwerte, plus r bzw [mm] $\Chi^2/DOF$. [/mm]

Am Anfang des Studiums hab ich so nette Praktika gemacht, wo es bei der Auswertung von Experimenten eigentlich um genau das hier ging, und wir haben das auf die hier genannten etwas unprofessionellen Arten berechnet.

Heute bin ich Leiter einer Praktikumsgruppe, und nu frag ich mich auch schon, wie man's besser machen kann.

Hab nu auch ein paar Formeln gefunden:

[mm] $D=n\summe x_i^2 [/mm] - [mm] \left(\summe x_i\right)^2$ [/mm]


Damit kann man auch die lin Regression machen:

$y=mx+b$

[mm] $m=\bruch{n\summe x_iy_i - \summe x_i\summe y_i}{D}$ [/mm]

[mm] b=\bruch{\summe x_i^2\summe y_i - \summe x_i\summe y_ix_i}{D} [/mm]

das aber nur nebenbei.

Die "Mittelwertgrade", wie man das nennt, ist

[mm] $s_y=\wurzel{\bruch{\summe(y_i-(mx_i+b))^2}{n-2}}$ [/mm]

Hieraus ergeben sich nun genau die Fehler:

[mm] $\Delta m=s_y\wurzel{\bruch{n}{D}}$ [/mm]

[mm] $\Delta b=s_y\wurzel{\bruch{\summe x_i^2}{D}}$ [/mm]

Gut, das ist nicht so ganz das, was ich hören bzw lesen wollte, denn das ist rechnerisch dann doch schon relativ aufwändig und in der gegebenen Zeit des Praktikums nicht machbar.


Ich dank euch auf jeden Fall.

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Statistik (Anwendungen)"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]