Minimaler Eigenwert < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
[mm] \green{editiert}
[/mm]
Hallo zusammen,
ich möchte folgendes zeigen, komme aber nicht auf die Lösung:
Seien zwei quadratische, symmetrische und pos. definite Matrizen $L,J [mm] \in R^{r\times r}$ [/mm] gegeben mit
[mm] \lambda_{min}(JL) \ge [/mm] 1.
(Der minimale Eigenwert von JL ist größer gleich Eins)
Seien ferner
$ L,J [mm] \in K_{\Delta} [/mm] $ mit
$ [mm] K_{\Delta}=\{K>0:K\Theta=\Theta K \quad\forall\Theta \in \Delta\} [/mm] $
und $ [mm] \Theta [/mm] $ reelle Diagonalmatrix.
Dann ist die Matrix
[mm] \pmat{ L & I \\ I & J } [/mm] positiv semidefinit.
Vielleicht kann mir hier jemand helfen?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:57 Fr 29.08.2008 | Autor: | Blech |
Setz mal an:
[mm] $\vektor{ x^t,\ y^t} \pmat{ L & I \\ I & J } \vektor{x\\y}$
[/mm]
Und multiplizier aus.
Ist [mm] $\mu$ [/mm] der minimale Eigenwert von $L$, läßt sich abschätzen:
[mm] $x^t [/mm] L x [mm] \geq \mu \| x\|^2$
[/mm]
ciao
Stefan
|
|
|
|
|
Hallo Stefan,
ich hab's noch nicht verstanden, sorry.
Vllt. ist es schon zu spät
Ausklammern von
$ [mm] \vektor{ x^t,\ y^t} \pmat{ L & I \\ I & J } \vektor{x\\y} \ge [/mm] 0$
liefert:
$ [mm] x^{t}Lx+y^{t}Jy+2x^{t}y \ge [/mm] 0$
Wie führt das nun auf [mm] \lambda_{min}(JL)\ge [/mm] 1 , und vor allem auf L,J >0?
Mal angenommen, L=J=[-1] und x=y=1.
Dann stimmt obige Gleichung, obwohl L und J neg. definit sind, denn
$ [mm] 1^{t}[-1]1+1^{t}[-1]1+2*1^{t}*1 [/mm] =0 [mm] \ge [/mm] 0$
Viele Grüße,
Andi
|
|
|
|
|
In der Frage ging es ja um die Hin-Richtung, also um
$L,J>0$ , [mm] $\lambda_{min}(LJ)\ge [/mm] 1$
[mm] \Rightarrow [/mm]
[mm] \dots [/mm]
[mm] \Rightarrow
[/mm]
$ [mm] \pmat{ L & I \\ I & J } \ge [/mm] 0 $
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 03:10 Sa 30.08.2008 | Autor: | Blech |
Die positive Definitheit ist hinreichend, nicht notwendig, also macht Dein Gegenbeispiel keinen Unterschied.
Allerdings hatte ich bei meinem Hinweis auch was übersehen.
So wie ich das (etwas übemüdet) sehe, brauchst Du
[mm] $x^{t}Lx+y^{t}Jy+2x^{t}y \ge \mu \|x\|^2 +\frac{1}{\mu}\|y\|^2 [/mm] +2x^ty$
(oder so ähnlich) und darauf dann die binomische Formel.
Der Knackpunkt ist, daß Du die Aussage brauchst:
Wenn [mm] $\mu$ [/mm] der kleinste EW von L ist, muß der kleinste von J größer/gleich [mm] $\frac{1}{\mu}$ [/mm] sein, wegen [mm] $\lambda_{min} [/mm] JL [mm] \geq [/mm] 1$
Wären J und L symmetrisch wäre das einfach zu zeigen, weil sie dann diagbar wären (der Beweis dafür ginge wieder über die Abschätzung aus dem Hinweis).
Nur mit pos Definitheit fällt mir spontan (um 3:06 =) auch nix ein. Warten wir auf Angela, die weiß sicher weiter.
ciao
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 10:06 Sa 30.08.2008 | Autor: | felixf |
Hallo
> Der Knackpunkt ist, daß Du die Aussage brauchst:
> Wenn [mm]\mu[/mm] der kleinste EW von L ist, muß der kleinste von J
> größer/gleich [mm]\frac{1}{\mu}[/mm] sein, wegen [mm]\lambda_{min} JL \geq 1[/mm]
Das stimmt aber definitiv nicht: $L = [mm] \pmat{ \frac{1}{2} & 0 \\ 0 & 2 }$ [/mm] und $J = [mm] \pmat{ 2 & 0 \\ 0 & \frac{1}{2} }$; [/mm] dann ist $L J = J L = I$, woimt [mm] $\lambda_{min}(JL) [/mm] = 1$ ist, aber der kleinste Eigenwert sowohl von $J$ als auch $L$ sind [mm] $\frac{1}{2}$. [/mm] Und sowohl $J$ wie auch $L$ sind bereits in Diagonalform.
LG Felix
|
|
|
|
|
Hmm, dieses Gegenbeispiel gibt mir zu denken, ob die Aussage, die gezeigt werden soll, überhaupt stimmt:
Seien L,J symm & pos. def. mit $ L = [mm] \pmat{ \frac{1}{2} & 0 \\ 0 & 2 } [/mm] $ und $ J = [mm] \pmat{ 2 & 0 \\ 0 & \frac{1}{2} } [/mm] $
Dann hat [mm] $\pmat{ L & I \\ I & J } [/mm] $ die Gestalt:
[mm] \pmat{\frac{1}{2} & 0 & 1 & 0\\0 & 2 & 0 & 1\\1 & 0 & 2 & 0\\0 & 1 & 0 & \frac{1}{2}}
[/mm]
Diese Matrix hat nur Rang 2 und ist damit nicht pos. semidefinit, oder?
|
|
|
|
|
> Hmm, dieses Gegenbeispiel gibt mir zu denken, ob die
> Aussage, die gezeigt werden soll, überhaupt stimmt:
> Seien L,J symm & pos. def. mit [mm]L = \pmat{ \frac{1}{2} & 0 \\ 0 & 2 }[/mm]
> und [mm]J = \pmat{ 2 & 0 \\ 0 & \frac{1}{2} }[/mm]
> Dann hat [mm]\pmat{ L & I \\ I & J }[/mm]
> die Gestalt:
> [mm]\pmat{\frac{1}{2} & 0 & 1 & 0\\0 & 2 & 0 & 1\\1 & 0 & 2 & 0\\0 & 1 & 0 & \frac{1}{2}}[/mm]
>
> Diese Matrix hat nur Rang 2 und ist damit nicht pos.
> semidefinit, oder?
Hallo,
doch.
Mein elektronischer Assistent sagt, daß die Eigenwerte 0 und 2.5 sind, nach dem Eigenwertkriterium für symmetrische Matrizen ist sie also positiv semidefinit.
Gruß v. Angela
|
|
|
|
|
Hallo zusammen,
ich hatte eine Kleinigkeit in dem Paper übersehen:
L und J sind symmetrisch nach Voraussetzung.
Sorry
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:03 Sa 30.08.2008 | Autor: | felixf |
Hallo
> ich hatte eine Kleinigkeit in dem Paper übersehen:
>
> L und J sind symmetrisch nach Voraussetzung.
Ah. Dann koennen wir ohne Einschraenkung (nach Basistransformation durch eine orthogonale Matrix) annehmen, dass $L$ eine Diagonalmatrix mit positiven Eintraegen ist und $J$ eine symmetrische positiv definite Matrix.
Hab jetzt allerdings grad keine Zeit da noch weiter drueber nachzudenken, wollt das nur kurz einwerfen :)
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 10:44 Sa 30.08.2008 | Autor: | felixf |
Hallo
> Seien zwei quadratische, pos. definite Matrizen L,J gegeben
Man kann ja zeigen, dass eine beliebige quadratische reellwertige Matrix $A$ genau dann positiv definit ist, wenn ihr symmetrischer Teil [mm] $\frac{1}{2} [/mm] (A + [mm] A^t)$ [/mm] positiv definiert ist.
Weiss jemand zufaellig, ob dies auch fuer positiv semidefinit gilt? Also $A$ positiv semidefinit [mm] $\Longleftrightarrrow \frac{1}{2} [/mm] (A + [mm] A^t)$ [/mm] positiv semidefinit?
Wenn das der Fall waere, koennte man hier ohne Einschraenkung annehmen, dass $J$ und $L$ symmetrisch sind; das macht das ganze evtl. einfacher.
LG Felix
|
|
|
|
|
> Seien ferner
> [mm]L,J \in K_{\Delta}[/mm] mit
> [mm]K_{\Delta}=\{K>0:K\Theta=\Theta K \quad\forall\Theta \in \Delta\}[/mm]
>
> und [mm]\Theta[/mm] reelle Diagonalmatrix.
Hallo,
sag' mal: wenn in [mm] K_{\Delta} [/mm] nur solche Matrizen drin sind, die mit jeder Diagonalmatrix kommutieren, sind dann nicht nur Diagonalmatrizen mit pos. Einträgen drin?
Oder hab' ich jetzt ein Möbiusband im Hirn?
Gruß v. Angela
|
|
|
|
|
> sag' mal: wenn in [mm]K_{\Delta}[/mm] nur solche Matrizen drin sind,
> die mit jeder Diagonalmatrix kommutieren, sind dann nicht
> nur Diagonalmatrizen mit pos. Einträgen drin?
Ja, das müsste stimmen, aber folgt das nicht schon aus der pos. Definitheit von L und J?
Wenn L,J pos. def. und symmetrisch, dann ist jeder Eigenwert von L,J > 0, damit haben beide vollen Rang/sind invertierbar und sind damit ähnlich zu einer Diagonalmatrix mit pos. Einträgen.
Oder irre ich mich?
LG,
Andreas
|
|
|
|
|
> > sag' mal: wenn in [mm]K_{\Delta}[/mm] nur solche Matrizen drin sind,
> > die mit jeder Diagonalmatrix kommutieren, sind dann nicht
> > nur Diagonalmatrizen mit pos. Einträgen drin?
> Ja, das müsste stimmen, aber folgt das nicht schon aus der
> pos. Definitheit von L und J?
> Wenn L,J pos. def. und symmetrisch, dann ist jeder
> Eigenwert von L,J > 0, damit haben beide vollen Rang/sind
> invertierbar und sind damit ähnlich zu einer Diagonalmatrix
> mit pos. Einträgen.
>
> Oder irre ich mich?
Hallo,
aus der pos. Definitheit folgt, daß sie (orthogonal) ähnlich zu einer Diagonalmatrix mit pos. Einträgen sind,
aber daraus daß sie in [mm] K_{\Delta} [/mm] sind, folgt, daß sie selbst Diagonalmatrizen sind.
Gruß v. Angela
|
|
|
|
|
> aber daraus daß sie in [mm]K_{\Delta}[/mm] sind, folgt das sie
> selbst Diagonalmatrizen sind.
Ja, das stimmt.
LG, Andreas
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:47 Sa 30.08.2008 | Autor: | felixf |
Hallo
> > aber daraus daß sie in [mm]K_{\Delta}[/mm] sind, folgt das sie
> > selbst Diagonalmatrizen sind.
>
> Ja, das stimmt.
Na, dann seien die Diagonaleintraege von $L$ mit [mm] $\lambda_i$ [/mm] und die von $J$ mit [mm] $\mu_i$ [/mm] bezeichnet. Die Bedingung, dass der kleinste Eigenwert [mm] $\ge [/mm] 1$ ist, ist gerade [mm] $\lambda_i \mu_i \ge [/mm] 1$ fuer alle $i$, und die positive Definitheit sagt [mm] $\lambda_i [/mm] > 0$, [mm] $\mu_i [/mm] > 0$.
Es laeuft darauf hinaus dass du [mm] $\sum_{i=1}^n \lambda_i x_i^2 [/mm] + [mm] \sum_{i=1}^n \mu_i y_i^2 [/mm] + 2 [mm] \sum_{i=1}^n x_i y_i \ge [/mm] 0$ zeigen musst.
Damit haben wir jetzt ein vergleichsweise konkretes Problem :)
LG Felix
|
|
|
|
|
> Es laeuft darauf hinaus dass du [mm]\sum_{i=1}^n \lambda_i x_i^2 + \sum_{i=1}^n \mu_i y_i^2 + 2 \sum_{i=1}^n x_i y_i \ge 0[/mm]
> zeigen musst.
Hallo Felix,
ich hab mich jetzt nochmal drangesetzt, aber leider immer noch kein Ergebnis.
Gibt es irgendeine Möglichkeit, obigen Term zu vereinfachen?
Die ersten beiden Summen sind ja nach Vss >0.
Man muss daher zeigen, dass der letzte Summand $2 [mm] \sum_{i=1}^n x_i y_i$ [/mm] , der auch negativ werden kann, nie so groß wird, dass der komplette Term negativ wird.
Kann man da irgendwas mit den bin. Formeln machen?
|
|
|
|
|
> > Es laeuft darauf hinaus dass du [mm]\sum_{i=1}^n \lambda_i x_i^2 + \sum_{i=1}^n \mu_i y_i^2 + 2 \sum_{i=1}^n x_i y_i \ge 0[/mm]
> > zeigen musst.
>
> Hallo Felix,
>
> ich hab mich jetzt nochmal drangesetzt, aber leider immer
> noch kein Ergebnis.
> Gibt es irgendeine Möglichkeit, obigen Term zu
> vereinfachen?
> Die ersten beiden Summen sind ja nach Vss >0.
> Man muss daher zeigen, dass der letzte Summand [mm]2 \sum_{i=1}^n x_i y_i[/mm]
> , der auch negativ werden kann, nie so groß wird, dass der
> komplette Term negativ wird.
> Kann man da irgendwas mit den bin. Formeln machen?
Hallo,
ja, darauf läuft das hinaus.
[mm] \sum_{i=1}^n \lambda_i x_i^2 [/mm] + [mm] \sum_{i=1}^n \mu_i y_i^2 [/mm] + 2 [mm] \sum_{i=1}^n x_i y_i
[/mm]
[mm] =\sum_{i=1}^n(\lambda_i x_i^2 [/mm] + [mm] \mu_i y_i^2 [/mm] + 2 [mm] x_i y_i)
[/mm]
[mm] s_i=\lambda_i x_i^2 [/mm] + [mm] \mu_i y_i^2 [/mm] + 2 [mm] x_i y_i [/mm] schätze ich jetzt ab.
Wenn [mm] x_iy_i\ge0 [/mm] ist, ist die Summe [mm] s_i [/mm] sowieso [mm] \ge [/mm] 0.
Wenn [mm] x_iy_i<0 [/mm] ist, dann ist
[mm] s_i=\lambda_i x_i^2 [/mm] + [mm] \mu_i y_i^2 [/mm] + 2 [mm] x_i y_i [/mm]
[mm] =(\wurzel{\lambda_i}x_i [/mm] + [mm] \wurzel{\mu_iy_i})^2 [/mm] - [mm] 2\wurzel{\lambda_i\mu_i}x_iy_i [/mm] - [mm] 2x_iy_i
[/mm]
[mm] =(\wurzel{\lambda_i}x_i [/mm] + [mm] \wurzel{\mu_iy_i})^2 [/mm] - [mm] 2x_iy_i(\wurzel{\lambda_i\mu_i} [/mm] -1) ,
n.V. ist die letzte Klammer [mm] \ge [/mm] 0, also ist [mm] s_i \ge [/mm] 0.
[mm] \sum_{i=1}^n \lambda_i x_i^2 [/mm] + [mm] \sum_{i=1}^n \mu_i y_i^2 [/mm] + 2 [mm] \sum_{i=1}^n x_i y_i =\sum_{i=1}^n(\lambda_i x_i^2 [/mm] + [mm] \mu_i y_i^2 [/mm] + 2 [mm] x_i y_i) [/mm] ist also eine Summe nichtnegativer zahlen, also nichtnegativ.
Gruß v. Angela
|
|
|
|
|
Vielen lieben Dank für Deine Hilfe, Angela.
Jetzt hab ich's verstanden
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:18 So 31.08.2008 | Autor: | felixf |
Hallo
Um das einfach nochmal festzuhalfen:
An Voraussetzungen reicht voellig: $L$ und $J$ sind symmetrisch, positiv definit, mit $L J = J L$ und [mm] $\lambda_{min}(J [/mm] L) [mm] \ge [/mm] 1$.
LG Felix
|
|
|
|