Orthogonale Gruppen < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:25 Sa 18.07.2009 | Autor: | math101 |
Aufgabe | 1) Sei A [mm] \in [/mm] O(n) eine Matrix, die mit allen B [mm] \in [/mm] O(n) kommutiert. Zeigen Sie, dass dann A = [mm] \pm [/mm] E.
2) Sei A [mm] \in [/mm] Sp(2m) eine Matrix, die mit allen B [mm] \in [/mm] Sp(2m) kommutiert. Zeigen Sie, dass dann ebenfalls [mm] A=\pm [/mm] E gilt. |
Hallo, Allerseits!
Hätte gerne Hilfe bei der Augabe gebraucht.
1) Ich weiß nicht, wie ich zeigen muss, dass [mm] A=\pm [/mm] E.
[mm] A\in [/mm] O(n) heißt, dass [mm] A^t A^{-1}=E [/mm] das gleiche gilt auch für B: [mm] B^t B^{-1}=E.
[/mm]
Sie kommutieren miteinander AB=BA und das gilt für jede B Matrix aus O(n). Es ist klar, dass wenn A mit jeder Matrix aus O(n) kommutiert, dann sollte sie diese Form haben [mm] \pm [/mm] E, aber wie zeigt man das...?
Könnte mir jemand dabei helfen?
Vielen-vielen Dank im Voraus!!!
Gruß
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:51 Sa 18.07.2009 | Autor: | wogie |
Würde das zurückführen auf (oder abschreiben von) eines(em) der Schur'schen Lemmata. Die Aussage gilt afaik für alle irreduziblen Matrixdarstellung einer Lie-Gruppe (bis auf Vorfaktoren).
Gruß
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:56 Sa 18.07.2009 | Autor: | math101 |
Erstmal vielen Dank für deine Antwort!!
Aber von Schur´schen Lemata hab ich noch nicht gehört.
Was besagen sie?
Danke
gruß
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:08 Sa 18.07.2009 | Autor: | wogie |
Also eines dieser Lemmata besagt:
Eine Matrix, die mit allen Matrizen einer irreduziblen Darstellung einer Lie-Gruppe kommutiert ist proportional zur Einheitsmatrix.
Wär vllt. mal nich schlecht, n Buch zu Gruppentheorie anzuschauen. Hab jetz ad hoc auch keinen einfachen beweis parat, sry.
Möglicherweise hilft dir der folgende Link weiter:
http://books.google.de/books?id=7bFIgtNkG8AC&pg=PA37&lpg=PA37&dq=schurs+lemmas&source=bl&ots=0-NZx_0u3J&sig=Eb6oqUefO9V9R8zKbraToY-YddU&hl=de&ei=izdiSpK0EIOAnQOM2pX4Dw&sa=X&oi=book_result&ct=result&resnum=9
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 06:08 So 19.07.2009 | Autor: | felixf |
Hallo!
> 1) Sei A [mm]\in[/mm] O(n) eine Matrix, die mit allen B [mm]\in[/mm] O(n)
> kommutiert. Zeigen Sie, dass dann A = [mm]\pm[/mm] E.
Du kannst hier etwa mit den Eigenraeumen argumentieren.
Sei ein beliebiger Vektor $v [mm] \neq [/mm] 0$ gegeben. Dann gibt es eine orthogonale Matrix $B$ mit $Eig(B, 1) = [mm] \langle [/mm] v [mm] \rangle$ [/mm] und $Eig(B, -1) = [mm] \langle [/mm] v [mm] \rangle^\bot$ [/mm] (wieso?). Da $A B = B A$ gilt, folgt dass $v$ ebenfalls ein Eigenvektor von $A$ ist (warum?).
Somit ist jeder Vektor [mm] $\neq [/mm] 0$ im [mm] $\IR^n$ [/mm] ein Eigenvektor von $A$, insbesondere ist $A$ also immer in Diagonalform, egal welche Basis man waelht (warum?).
Nun nimm an, dass $A$ mehr als einen Eigenwert hat. Wenn das der Fall ist, kannst du einen Vektor [mm] $\neq [/mm] 0$ konstruieren der kein Eigenvektor ist (wie?). Somit hat $A$ nur einen Eigenwert, und daraus folgt $A = [mm] \lambda [/mm] E$ fuer ein [mm] $\lambda \in \IR$ [/mm] (warum?). Damit $A$ orthogonal ist muss [mm] $\lambda \in \{ -1, +1 \}$ [/mm] liegen (warum?).
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:51 So 19.07.2009 | Autor: | math101 |
Hallo, fellixf!!!
Vielen-vielen Dank für deine Antwort, die ist sehr hilfreich!!
> Du kannst hier etwa mit den Eigenraeumen argumentieren.
>
> Sei ein beliebiger Vektor [mm]v \neq 0[/mm] gegeben. Dann gibt es
> eine orthogonale Matrix [mm]B[/mm] mit [mm]Eig(B, 1) = \langle v \rangle[/mm]
> und [mm]Eig(B, -1) = \langle v \rangle^\bot[/mm] (wieso?)
Hier hab ich allerdings ein kleines Problem mit "(warum?)":
Existiert es ein Eigenwert von B [mm] \lambda [/mm] =1, weil [mm] B\in [/mm] O(n) liegt? Und wieso sollte es noch einen eigenwert geben mit
[mm] \lambda [/mm] ´=-1? wegen det(B)={ +1,-1 }?
>Da [mm]A B = B A[/mm]
> gilt, folgt dass [mm]v[/mm] ebenfalls ein Eigenvektor von [mm]A[/mm] ist
> (warum?).
Weil [mm] B=A^{-1}BA [/mm] und das heißt, dass A die Basiswechselmatrix ist, das charackteristische Polynom bleibt aber gleich und somit auch die Eigenwerte und weil Eig(B,1)=<v>, dann sollte das gleiche auch für A gelten.
> Somit ist jeder Vektor [mm]\neq 0[/mm] im [mm]\IR^n[/mm] ein Eigenvektor von
> [mm]A[/mm], insbesondere ist [mm]A[/mm] also immer in Diagonalform, egal
> welche Basis man waelht (warum?).
Weil jeder Vektor in [mm] \IR^{n} [/mm] ein Eigenvektor von A ist, also [mm] \forall [/mm] x [mm] \in \IR^{n} [/mm] gilt Ax=x. Das kann nur der Fall sein, wenn A=E.
> Nun nimm an, dass [mm]A[/mm] mehr als einen Eigenwert hat. Wenn das
> der Fall ist, kannst du einen Vektor [mm]\neq 0[/mm] konstruieren
> der kein Eigenvektor ist (wie?).
So, dass [mm] Ax\not= [/mm] x. Und weil [mm] A\in [/mm] O(n) ist, kann es nicht gelten. Oder?
> Somit hat [mm]A[/mm] nur einen
> Eigenwert, und daraus folgt [mm]A = \lambda E[/mm] fuer ein [mm]\lambda \in \IR[/mm]
> (warum?). Damit [mm]A[/mm] orthogonal ist muss [mm]\lambda \in \{ -1, +1 \}[/mm]
> liegen (warum?).
Gruß
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:51 Mo 20.07.2009 | Autor: | felixf |
Hallo!
> > Du kannst hier etwa mit den Eigenraeumen argumentieren.
> >
> > Sei ein beliebiger Vektor [mm]v \neq 0[/mm] gegeben. Dann gibt es
> > eine orthogonale Matrix [mm]B[/mm] mit [mm]Eig(B, 1) = \langle v \rangle[/mm]
> > und [mm]Eig(B, -1) = \langle v \rangle^\bot[/mm] (wieso?)
>
> Hier hab ich allerdings ein kleines Problem mit
> "(warum?)":
> Existiert es ein Eigenwert von B [mm]\lambda[/mm] =1, weil [mm]B\in[/mm]
> O(n) liegt? Und wieso sollte es noch einen eigenwert geben
> mit
> [mm]\lambda[/mm] ´=-1? wegen det(B)={ +1,-1 }?
Du sollst $B$ konstruieren und nicht irgendwelche Aussagen ueber $B$ treffen. Waehle doch eine ON-Basis vom orthogonalen Komplement von [mm] $\langle [/mm] v [mm] \rangle$ [/mm] und fuege [mm] $\frac{v}{\|v\|}$ [/mm] hinzu, dann hast du eine ON-Basis vom ganzen Vektorraum. Stell dir vor, dass du dir $B$ bzgl. dieser Basis anschaust. Was koenntest du z.B. fuer die Diagonaleintraege waehlen, wenn es eine Diagonalmatrix sein sollte?
> >Da [mm]A B = B A[/mm]
> > gilt, folgt dass [mm]v[/mm] ebenfalls ein Eigenvektor von [mm]A[/mm] ist
> > (warum?).
>
> Weil [mm]B=A^{-1}BA[/mm] und das heißt, dass A die
> Basiswechselmatrix ist, das charackteristische Polynom
> bleibt aber gleich und somit auch die Eigenwerte und weil
> Eig(B,1)=<v>, dann sollte das gleiche auch für A gelten.
Was genau willst du damit sagen? So kannst du nicht argumentieren.
Du weisst $B v = v$, und $A B = B A$. Damit ist $A v = A B v = B A v$. Damit ist $A v$ ein Eigenvektor von $B$ zum Eigenwert 1. Wenn der entsprechende Eigenraum jedoch Dimension 1 hat, muss $A v$ wieder ein Vielfaches von $v$ sein.
> > Somit ist jeder Vektor [mm]\neq 0[/mm] im [mm]\IR^n[/mm] ein Eigenvektor von
> > [mm]A[/mm], insbesondere ist [mm]A[/mm] also immer in Diagonalform, egal
> > welche Basis man waelht (warum?).
>
> Weil jeder Vektor in [mm]\IR^{n}[/mm] ein Eigenvektor von A ist,
> also [mm]\forall[/mm] x [mm]\in \IR^{n}[/mm] gilt Ax=x. Das kann nur der Fall
> sein, wenn A=E.
Es muss nicht $A x =x$ gelten, es koennte z.B. auch $A x = -x$ gelten.
> > Nun nimm an, dass [mm]A[/mm] mehr als einen Eigenwert hat. Wenn das
> > der Fall ist, kannst du einen Vektor [mm]\neq 0[/mm] konstruieren
> > der kein Eigenvektor ist (wie?).
>
> So, dass [mm]Ax\not=[/mm] x. Und weil [mm]A\in[/mm] O(n) ist, kann es nicht
> gelten. Oder?
Wieso, es kann doch $A x = -x$ sein. Orthogonale Matrizen haben komplexe Eigenwerte mit Betrag 1; die reellen Moeglichkeiten sind also $1$ und $-1$.
LG Felix
|
|
|
|