OLS-Regression < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 11:48 Sa 24.07.2010 | Autor: | Marcel08 |
Aufgabe | Der OLS-Schätzer für den Parametervektor [mm] \beta [/mm] des linearen Regressionsmodells [mm] y=X\beta+u [/mm] ist [mm] \hat\beta=(X^{T}X)^{-1}X^{T}y, [/mm] die gefitteten Werte sind mit [mm] \hat{y}=X\hat\beta [/mm] und die Residuen mit [mm] \hat{u}=y-\hat{y} [/mm] gegeben. Die Datenmatrix nehmen wir zur Vereinfachung als deterministisch an.
a) Führen Sie eine Regression der OLS-Residuen auf die Datenmatrix X durch und berechnen Sie den geschätzten Parametervektor. Interpretieren Sie das Ergebnis kurz.
b) Führen Sie eine Regression der gefitteten Werte aus der OLS-Schätzung auf die Datenmatrix X durch und berechnen Sie die Residuen dieser Regression. Interpretieren Sie das Ergebnis kurz. |
Hallo!
Bei diesen beiden Aufgaben geht es mir zunächst nur um den Ansatz. Wie beginne ich also die folgenden Aufgaben? Meine Ansatzvorschläge lauten:
zu a)
[mm] \beta_{\hat{u}}=(X^{T}X)^{-1}X^{T}(y-\hat{y})
[/mm]
[mm] =(X^{T}X)^{-1}X^{T}(X\beta+u-\hat{y})
[/mm]
[mm] =(X^{T}X)^{-1}X^{T}(X\beta+u-X\hat\beta)
[/mm]
Im weiteren Verlauf errechne ich unter Zuhilfenahme von E(u)=0 [mm] \hat\beta_{\hat{u}}=0. [/mm] Daraus kann man dann folgern, dass die Residuen orthogonal auf der Datenmatrix stehen; man hat also [mm] Cov(\hat{u},X)=0
[/mm]
zu b)
[mm] \hat\beta_{\hat{y}}=(X^{T}X)^{-1}X^{T}\hat{y}
[/mm]
[mm] =(X^{T}X)^{-1}X^{T}X\hat\beta
[/mm]
Ich erhalte dann [mm] \hat\beta_{\hat{y}}=\beta [/mm] und somit die Erwartungstreue des Schätzers durch eine Regression der gefitteten Werte auf die Datenmatrix X.
Ich bin mir nun nicht ganz sicher, ob die Ansätze meiner Rechnungen stimmen oder ob diese Rechnungen nur trivial sind. Über einen kurzen Kommentar würde ich mich freuen.
Gruß, Marcel
|
|
|