Positiv definit < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:07 Fr 19.09.2014 | Autor: | Avinu |
Aufgabe 1 | Es sei [mm]n \in \IN[/mm] gegeben. Eine Matrix [mm]A \in \IR^{n\times n}[/mm] heißt heißt positiv definit, wenn für [mm]x \in \IR^{n\times 1} \backslash \{0\}[/mm] stets [mm]x^{tr} A x > 0[/mm] gilt. Nun sei ein [mm]A \in \IR^{n\times n}[/mm] gegeben. Zeigen Sie:
(a) Wenn [mm]A[/mm] invertierbar ist, dann ist [mm]A^{tr} A[/mm] positiv definit. |
Aufgabe 2 | (b) Wenn [mm]A[/mm] positiv definit ist, dann gilt [mm]A_{i;i} > 0[/mm] für [mm]i \in [1,n][/mm]. |
Aufgabe 3 | (c) Wenn [mm]A[/mm] positiv definit ist, so ist jeder Eigenwert von [mm]A[/mm] positiv. |
Hallo zusammen,
zum Üben versuche ich mich gerade an dieser Aufgabe. Bei Teil a) habe ich leider keinen Ansatz. Ich sehe nicht, welche Eigenschaft einer invertierbaren Matrix mich hier weiter bringt.
Teil b) leuchtet mir intuitiv zwar ein, aber ich bekomme keinen richtigen Beweis hin. Hier von einer positiv definiten Diagonalmatrix auszugehen, scheint mir der falsche Ansatz.
Teil c) sollte dann aber aus Teil b folgen, oder? Für eine Diagonalmatrix sind die Eigenwerte die Werte auf der Diagonalen. Nach b) sind die ja positiv.
Kann mir jemand von euch vielleicht einen Tipp für Teil a) und b) geben?
Vielen Dank für 's lesen.
Avinu
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 02:25 Sa 20.09.2014 | Autor: | Marcel |
Hallo,
> Es sei [mm]n \in \IN[/mm] gegeben. Eine Matrix [mm]A \in \IR^{n\times n}[/mm]
> heißt heißt positiv definit, wenn für [mm]x \in \IR^{n\times 1} \backslash \{0\}[/mm]
> stets [mm]x^{tr} A x > 0[/mm] gilt. Nun sei ein [mm]A \in \IR^{n\times n}[/mm]
> gegeben. Zeigen Sie:
>
> (a) Wenn [mm]A[/mm] invertierbar ist, dann ist [mm]A^{tr} A[/mm] positiv
> definit.
> (b) Wenn [mm]A[/mm] positiv definit ist, dann gilt [mm]A_{i;i} > 0[/mm] für
> [mm]i \in [1,n][/mm].
> (c) Wenn [mm]A[/mm] positiv definit ist, so ist jeder
> Eigenwert von [mm]A[/mm] positiv.
> Hallo zusammen,
>
> zum Üben versuche ich mich gerade an dieser Aufgabe. Bei
> Teil a) habe ich leider keinen Ansatz. Ich sehe nicht,
> welche Eigenschaft einer invertierbaren Matrix mich hier
> weiter bringt.
für $0 [mm] \not= [/mm] x [mm] \in \IR^n$ [/mm] ist
[mm] $x^{tr}*(A^{tr}A)*x [/mm] > 0$
nachzuweisen. Es gilt:
[mm] $x^{tr}A^{tr}Ax=(Ax)^{tr}(Ax)\,.$
[/mm]
Die Abbildung
[mm] $\IR^{n \times 1} \ni [/mm] x [mm] \mapsto [/mm] Ax=:y(x) [mm] \in \IR^{n \times 1}$
[/mm]
ist injektiv (warum?), daraus folgt, dass aus $x [mm] \not=0$ [/mm] auch
$y(x)=Ax [mm] \not=0$ [/mm] (klar?).
Frage an Dich: Was hat
[mm] $\IR^{n \times 1} \ni [/mm] y [mm] \mapsto y^{tr}y$
[/mm]
mit
[mm] $\IR^{n \times 1} \ni [/mm] y [mm] \mapsto \|y\|_{2,n}:=\sqrt{\sum_{k=1}^n {y_k}^2}$ [/mm] für [mm] $y=(y_1,...,y_n)^{tr}$
[/mm]
zu tun?
Hinweis: Nein, es ist nicht [mm] $\|y\|_{2,n}=y^{tr}y\,,$ [/mm] aber fast!
Gruß,
Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:21 Sa 20.09.2014 | Autor: | Avinu |
Hallo Marcel,
schon mal danke für deine Antwort.
> Die Abbildung
>
> [mm]\IR^{n \times 1} \ni x \mapsto Ax=:y(x) \in \IR^{n \times 1}[/mm]
>
> ist injektiv (warum?)
Weil die Abbildung sogar bijektiv ist, da A invertierbar ist.
> [mm]y(x)=Ax \not=0[/mm] (klar?).
Ja!
> Frage an Dich: Was hat
>
> [mm]\IR^{n \times 1} \ni y \mapsto y^{tr}y[/mm]
>
> mit
>
> [mm]\IR^{n \times 1} \ni y \mapsto \|y\|_{2,n}:=\sqrt{\sum_{k=1}^n {y_k}^2}[/mm]
> für [mm]y=(y_1,...,y_n)^{tr}[/mm]
>
> zu tun?
Es ist doch [mm]y^{tr}y = [/mm] und [mm]\|y\| = \sqrt{}[/mm] also ist [mm]\sqrt{y^{tr}y} = \|y\|[/mm]. Für [mm]y \not=0[/mm] ist aber [mm]\|y\| > 0[/mm], also auch [mm]\sqrt{y^{tr}y} > 0[/mm] und damit auch [mm]y^{tr}y > 0[/mm].
Da wir ja gesagt hatten, dass gilt [mm]y(x)=Ax \not=0[/mm], ist also dann [mm](Ax)^{tr}(Ax) > 0[/mm] für [mm]0 \not= x \in \IR^n[/mm].
Richtig so?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:40 Sa 20.09.2014 | Autor: | Marcel |
Hallo,
> Hallo Marcel,
>
> schon mal danke für deine Antwort.
>
> > Die Abbildung
> >
> > [mm]\IR^{n \times 1} \ni x \mapsto Ax=:y(x) \in \IR^{n \times 1}[/mm]
>
> >
> > ist injektiv (warum?)
>
> Weil die Abbildung sogar bijektiv ist, da A invertierbar
> ist.
ja, schau aber dennoch ruhig mal nach, was Injektivität und Surjektivität
mit den Zeilen- bzw. Spaltenrang zu tun hat:
http://de.wikipedia.org/wiki/Rang_%28Mathematik%29#Eigenschaften
Ansonsten hättest Du auch schnell
[mm] $\text{Kern}(f_A)=\{0\}$
[/mm]
nachrechnen können, wobei
[mm] $\IR^n \ni [/mm] x [mm] \mapsto f_A(x):=A*x \in \IR^n\,.$
[/mm]
>
> > [mm]y(x)=Ax \not=0[/mm] (klar?).
>
> Ja!
>
>
> > Frage an Dich: Was hat
> >
> > [mm]\IR^{n \times 1} \ni y \mapsto y^{tr}y[/mm]
> >
> > mit
> >
> > [mm]\IR^{n \times 1} \ni y \mapsto \|y\|_{2,n}:=\sqrt{\sum_{k=1}^n {y_k}^2}[/mm]
> > für [mm]y=(y_1,...,y_n)^{tr}[/mm]
> >
> > zu tun?
>
> Es ist doch [mm]y^{tr}y = [/mm] und [mm]\|y\| = \sqrt{}[/mm] also
> ist [mm]\sqrt{y^{tr}y} = \|y\|[/mm]. Für [mm]y \not=0[/mm] ist aber [mm]\|y\| > 0[/mm],
> also auch [mm]\sqrt{y^{tr}y} > 0[/mm] und damit auch [mm]y^{tr}y > 0[/mm].
>
> Da wir ja gesagt hatten, dass gilt [mm]y(x)=Ax \not=0[/mm], ist also
> dann [mm](Ax)^{tr}(Ax) > 0[/mm] für [mm]0 \not= x \in \IR^n[/mm].
>
> Richtig so?
Ich hätte noch
[mm] $(Ax)^{tr}(Ax)={\|Ax\|}^2$
[/mm]
geschrieben, aber:
Gruß,
Marcel
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 03:16 Sa 20.09.2014 | Autor: | Marcel |
Hallo nochmal,
> Es sei [mm]n \in \IN[/mm] gegeben. Eine Matrix [mm]A \in \IR^{n\times n}[/mm]
> heißt heißt positiv definit, wenn für [mm]x \in \IR^{n\times 1} \backslash \{0\}[/mm]
> stets [mm]x^{tr} A x > 0[/mm] gilt. Nun sei ein [mm]A \in \IR^{n\times n}[/mm]
> gegeben. Zeigen Sie:
>
> (a) Wenn [mm]A[/mm] invertierbar ist, dann ist [mm]A^{tr} A[/mm] positiv
> definit.
> (b) Wenn [mm]A[/mm] positiv definit ist, dann gilt [mm]A_{i;i} > 0[/mm] für
> [mm]i \in [1,n][/mm].
> (c) Wenn [mm]A[/mm] positiv definit ist, so ist jeder
> Eigenwert von [mm]A[/mm] positiv.
> Hallo zusammen,
>
> zum Üben versuche ich mich gerade an dieser Aufgabe. Bei
> Teil a) habe ich leider keinen Ansatz. Ich sehe nicht,
> welche Eigenschaft einer invertierbaren Matrix mich hier
> weiter bringt.
> Teil b) leuchtet mir intuitiv zwar ein, aber ich bekomme
> keinen richtigen Beweis hin. Hier von einer positiv
> definiten Diagonalmatrix auszugehen, scheint mir der
> falsche Ansatz.
ja, das ist der falsche Ansatz. Ich gebe Dir mal einen Hinweis:
Es gilt ja
[mm] $x^{tr}Ax [/mm] > 0$
für alle Nichtnullspaltenvektoren [mm] $x\,$ [/mm] des [mm] $\IR^{n \times 1}\,.$
[/mm]
Dann gilt das insbesondere auch, wenn Du
[mm] $x=e_k^{(n)}$
[/mm]
betrachtest mit
[mm] $e_k^{(n)}=(0,...,0,1,0,...,0)^{tr}$
[/mm]
mit der 1 an der k-ten Stelle - d.h. [mm] $e_k^{(n)}$ [/mm] ist der [mm] $k\,$-te [/mm] (kanonische)
Einheitsvektor des [mm] $\IR^{n \times 1}\,.$
[/mm]
(Natürlich kann man das auch schöner hinschreiben, so dass die Definition
auch "optisch" zu [mm] $e_1^{(n)}$ [/mm] etc. passt. Du kannst etwa
[mm] $e_k^{(n)}={({(\delta_{j,k})}_{j=1}^n)}^{tr}$
[/mm]
mit dem Kronecker-Delta schreiben!)
Aus Demonstrationszwecken berechne ich mal (das hoch [mm] $(4)\,$ [/mm] spare ich mir mal)
[mm] ${e_2}^{tr}*\underbrace{\pmat{a_{11} & a_{12} & a_{13} & a_{14} \\a_{21} & a_{22} & a_{23} & a_{24} \\a_{31} & a_{32} & a_{33} & a_{34} \\a_{41} & a_{42} & a_{43} & a_{44} }}_{=:A}*e_2$
[/mm]
bzw. sage Dir, was da passiert:
[mm] $A*e_2$
[/mm]
wählt die zweite Spalte von [mm] $A\,$ [/mm] aus:
[mm] $A*e_2=A*\vektor{0\\1\\0\\0}=\pmat{a_{12}\\a_{22}\\ a_{32} \\a_{42}}$
[/mm]
Weiter würde, das mach' Dir klar, dann
[mm] ${e_2}^{tr}*X$ [/mm]
die zweite ZEILE von [mm] $X\,$ [/mm] auswählen, wenn $X [mm] \in \IR^{n \times m}\,.$ [/mm]
Also wird durch
[mm] ${e_2}^{tr}*(A*e_2)$
[/mm]
die zweite Zeile von
[mm] $\pmat{a_{12}\\a_{22}\\ a_{32} \\a_{42}}$
[/mm]
ausgewählt.
Kurzgesagt:
[mm] ${e_2}^{tr}*A*e_2=e_2^{tr}*(A*e_2)=a_{22}\,.$
[/mm]
Für unser obiges $A [mm] \in \IR^{4 \times 4}$ [/mm] sehe ich so also, wenn [mm] $A\,$ [/mm] positiv definit ist,
dass [mm] $a_{22} [/mm] > 0$ sein muss, weil ich
[mm] $a_{22}=(0,1,0,0)*A*\vektor{0\\1\\0\\0} [/mm] > 0$
aus der p.D. von [mm] $A\,$ [/mm] weiß. (Beachte [mm] $(0,1,0,0)^{tr} \not=(0,0,0,0)^{tr}$). [/mm] Jetzt das Ganze
einfach allgemein aufschreiben!
Gruß,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:48 Sa 20.09.2014 | Autor: | Avinu |
Hi Marcel,
danke für deine Antwort. Das leuchtet mir so alles ein. Danke dir!
Viele Grüße,
Avinu
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 03:29 Sa 20.09.2014 | Autor: | Marcel |
Hallo nochmal,
> Es sei [mm]n \in \IN[/mm] gegeben. Eine Matrix [mm]A \in \IR^{n\times n}[/mm]
> heißt heißt positiv definit, wenn für [mm]x \in \IR^{n\times 1} \backslash \{0\}[/mm]
> stets [mm]x^{tr} A x > 0[/mm] gilt. Nun sei ein [mm]A \in \IR^{n\times n}[/mm]
> gegeben. Zeigen Sie:
>
> (a) Wenn [mm]A[/mm] invertierbar ist, dann ist [mm]A^{tr} A[/mm] positiv
> definit.
> (b) Wenn [mm]A[/mm] positiv definit ist, dann gilt [mm]A_{i;i} > 0[/mm] für
> [mm]i \in [1,n][/mm].
> (c) Wenn [mm]A[/mm] positiv definit ist, so ist jeder
> Eigenwert von [mm]A[/mm] positiv.
nun denn:
Sei [mm] $\lambda$ [/mm] Eigenwert zu $x [mm] \not=0\,.$ [/mm] Dann folgt
[mm] $Ax=\lambda*x\,,$
[/mm]
und somit weiterhin
[mm] $x^{tr}(Ax)=x^{tr}*(\lambda*x)\,.$
[/mm]
Frage an Dich:
Weil [mm] $A\,$ [/mm] p.def. ist, folgt
$0 [mm] \textbf{\red{ ? }} x^{tr}(Ax)\,.$
[/mm]
Mit
[mm] $x^{tr}*(\lambda x)=\lambda*(...)=\lambda*{\|x\|_{2,n}}^2$
[/mm]
folgt wegen
$0 [mm] \textbf{\red{ ? }}{\|x\|_{2,n}}^2 [/mm] $
sodann...?
Hinweis: [mm] $\textbf{\red{ ? }} \in \{\,<,\;>\}$
[/mm]
Gruß,
Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:07 Sa 20.09.2014 | Autor: | Avinu |
Hallo Marcel,
auch noch mal Danke für diese Antwort.
> Frage an Dich:
> Weil [mm]A\,[/mm] p.def. ist, folgt
>
> [mm]0 \textbf{\red{ ? }} x^{tr}(Ax)\,.[/mm]
[mm]0 \textbf{\red{ < }} x^{tr}(Ax)\,.[/mm]
> Mit
>
> [mm]x^{tr}*(\lambda x)=\lambda*(...)=\lambda*{\|x\|_{2,n}}^2[/mm]
>
> folgt wegen
>
> [mm]0 \textbf{\red{ ? }}{\|x\|_{2,n}}^2[/mm]
[mm]0 \textbf{\red{ < }}{\|x\|_{2,n}}^2[/mm]
> sodann...?
[mm]\lambda > 0[/mm]
Vielen Dank für deine Hilfe!
Schöne Grüße,
Avinu
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:42 Sa 20.09.2014 | Autor: | Marcel |
Hallo,
> Hallo Marcel,
>
> auch noch mal Danke für diese Antwort.
>
> > Frage an Dich:
> > Weil [mm]A\,[/mm] p.def. ist, folgt
> >
> > [mm]0 \textbf{\red{ ? }} x^{tr}(Ax)\,.[/mm]
>
> [mm]0 \textbf{\red{ < }} x^{tr}(Ax)\,.[/mm]
>
> > Mit
> >
> > [mm]x^{tr}*(\lambda x)=\lambda*(...)=\lambda*{\|x\|_{2,n}}^2[/mm]
>
> >
> > folgt wegen
> >
> > [mm]0 \textbf{\red{ ? }}{\|x\|_{2,n}}^2[/mm]
>
> [mm]0 \textbf{\red{ < }}{\|x\|_{2,n}}^2[/mm]
>
>
> > sodann...?
>
> [mm]\lambda > 0[/mm]
sehr gut:
> Vielen Dank für deine Hilfe!
Gerne!
Gruß,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 03:37 Sa 20.09.2014 | Autor: | Marcel |
Hallo,
> Teil c) sollte dann aber aus Teil b folgen, oder? Für
> eine Diagonalmatrix sind die Eigenwerte die Werte auf der
> Diagonalen. Nach b) sind die ja positiv.
wer sagte denn hier, dass Du Dich auf positiv definite Diagonalmatrizen
beschränken sollst? Niemand.
Nebenher auch nochmal die bitte an Dich:
Wie berechnet man die Eigenwerte [mm] $\lambda$?
[/mm]
[mm] $\det(A-\lambda*E)=...$?
[/mm]
mit (zur quadratischen Matrix [mm] $A\,$ [/mm] passenden Einheitsmatrix [mm] $E\,$).
[/mm]
Gruß,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:15 Sa 20.09.2014 | Autor: | Avinu |
Hallo Marcel,
> wer sagte denn hier, dass Du Dich auf positiv definite
> Diagonalmatrizen
> beschränken sollst? Niemand.
Der Gedanke kam mir heute morgen unter der Dusche auch ;)
> Nebenher auch nochmal die bitte an Dich:
> Wie berechnet man die Eigenwerte [mm]\lambda[/mm]?
>
> [mm]\det(A-\lambda*E)=...[/mm]?
>
> mit (zur quadratischen Matrix [mm]A\,[/mm] passenden Einheitsmatrix
> [mm]E\,[/mm]).
Wie du gesagt hast, ich bestimme die Determinante dieses Ausdrucks, erhalte ein Polynom und bestimme dessen Nullstellen. Diese Nullstellen sind dann die Eigenwerte von A.
Aber für eine Diagonalmatrix erhalte ich das Polynom ja direkt in Linearfaktoren zerlegt und kann die Eigenwerte ablesen. So etwas wie
[mm](\lambda-a_{11})(\lambda-a_{22}) ... (\lambda-a_{nn})[/mm]
Wenn du mir hier einen Fehler aufzeigen wolltest, dann sehe ich ihn leider noch nicht :(
Viele Grüße,
Avinu
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:46 Sa 20.09.2014 | Autor: | Marcel |
Hallo,
> Hallo Marcel,
>
> > wer sagte denn hier, dass Du Dich auf positiv definite
> > Diagonalmatrizen
> > beschränken sollst? Niemand.
>
> Der Gedanke kam mir heute morgen unter der Dusche auch ;)
>
> > Nebenher auch nochmal die bitte an Dich:
> > Wie berechnet man die Eigenwerte [mm]\lambda[/mm]?
> >
> > [mm]\det(A-\lambda*E)=...[/mm]?
> >
> > mit (zur quadratischen Matrix [mm]A\,[/mm] passenden Einheitsmatrix
> > [mm]E\,[/mm]).
>
> Wie du gesagt hast, ich bestimme die Determinante dieses
> Ausdrucks, erhalte ein Polynom und bestimme dessen
> Nullstellen. Diese Nullstellen sind dann die Eigenwerte von
> A.
> Aber für eine Diagonalmatrix erhalte ich das Polynom ja
> direkt in Linearfaktoren zerlegt und kann die Eigenwerte
> ablesen. So etwas wie
>
> [mm](\lambda-a_{11})(\lambda-a_{22}) ... (\lambda-a_{nn})[/mm]
>
> Wenn du mir hier einen Fehler aufzeigen wolltest, dann sehe
> ich ihn leider noch nicht :(
na, ich wollte nicht sagen, dass Deine Überlegungen für Diagonalmatrizen
falsch wären. Nur:
Nicht jede positv definite Matrix ist auch eine Diagonalmatrix.
Deswegen zeigst Du die Behauptung nur für eine echte Teilmenge der
Matrizen, für die Du sie zeigen solltest.
P.S. Es kann sogar sein, dass man mit Zusatzüberlegungen das Ganze
auch auf die obige Teilmenge zurückführen kann. Aber, wie gesagt, ich
habe Dir auch gezeigt, wie man direkt die Behauptung für irgendeine
p.def. quadratische Matrix folgern kann.
Gruß,
Marcel
|
|
|
|