Regressionsmodell/Nullmodell < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Es gilt: R² vom Regressionsmodell ≥ R² vom Nullmodell“.
Begründen Sie (entweder mathematisch oder verbal), warum dies der Fall ist. |
ich verstehe diese aussage nicht, leider bin ich in statistik nicht so bewandert.
ich weiß noch, dass [mm] R^2 [/mm] das jeweilige Bestimmtheitsmaß ist und dass dieses Maß irgendwie angibt, wie gut die Daten durch das Modell erklärt werden.
Das Nullmodell ist immer das einfachere Modell und das Regressionsmodell etwas genauer,aber ist deswegen das Bestimmtheitsmaß auch immer größer?
kann jemand mir erklären weshalb das so ist?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:02 So 13.01.2013 | Autor: | luis52 |
Moin,
Ich beziehe mich mal auf das hier:
Damit wird das Bestimmtheitsmaß [mm] R^2 [/mm] definiert als:
[mm] $R^2 [/mm] = [mm] 1-\frac{\displaystyle\sum_{i=1}^n (Y_i -\hat{Y}_i)^2}{\displaystyle\sum_{i=1}^n (Y_i - \bar{Y})^2}$
[/mm]
Bedenke, dass nach der Methode der kleinsten Quadrate [mm] $\sum_{i=1}^n (Y_i -\hat{Y}_i)^2$ [/mm] den Ausdruck [mm] $\sum_{i=1}^n({b}_0 [/mm] + [mm] {b}_1 X_{i1} [/mm] + ... [mm] +{b}_p X_{ip})^2$ [/mm] fuer alle [mm] $b_0,b_1,\dots,b_p\in\IR$ [/mm] minimiert. Im Nullmodell werden Restriktionen bzgl. [mm] $b_0,b_1,\dots,b_p$ [/mm] unterstellt, z.B. [mm] $b_1=0$. [/mm] Dann wird der der minimierende Wert der Zielfunktion
[mm] $\sum_{i=1}^n({b}_0 [/mm] + [mm] \red{0}\cdot X_{i1} [/mm] + ... [mm] +{b}_p X_{ip})^2$
[/mm]
groesser sein als [mm] $\sum_{i=1}^n (Y_i -\hat{Y}_i)^2$ [/mm] und somit das zugehoerige Bestimmtheitmass [mm] $R_0^2$ [/mm] kleiner sein als [mm] $R^2$.
[/mm]
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:25 So 13.01.2013 | Autor: | isabell_88 |
danke für die schnelle Hilfe
|
|
|
|