www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - Quellen/Links zu lin. Algebra
Quellen/Links zu lin. Algebra < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Quellen/Links zu lin. Algebra: Frobenius-Matrizen & Gesetze
Status: (Frage) beantwortet Status 
Datum: 22:47 Mi 02.11.2005
Autor: Karl_Pech

Hallo allerseits,


1.) Weiß jemand eine Seite, wo die Frobenius-Matrizen ausführlich (Anwendung, Gesetzmäßigkeiten, ...) dargestellt werden? Unter WikiPedia ist lediglich die Definition zu sehen (mit dem Hinweis auf die LR Zerlegung).

2.) Kennt jemand Internet-Seiten, Skripte, ... , wo generell eine Art Auflistung von Gesetzmäßigkeiten aus der linearen Algebra gemacht wird. Ich bräuche speziell etwas für lineare Gleichungssysteme. Also z.B. sowas wie [mm] $AA^{-1} [/mm] = E$ oder [mm] $\left(A^TB^T\right)^T [/mm] = BA$. Es wäre auch schön (aber nicht unbedingt notwendig), wenn zu diesen Gesetzmäßigkeiten auch kleine Beweise stünden.


Vielen Dank im Vorraus! :-)



Viele Grüße
Karl
[user]





        
Bezug
Quellen/Links zu lin. Algebra: zu 1
Status: (Antwort) fertig Status 
Datum: 13:52 Fr 04.11.2005
Autor: Stefan

Hallo Karl!

Ist das für Frage 1 okay so?

[Dateianhang nicht öffentlich]

Quelle: []http://www.ku-eichstaett.de/Fakultaeten/MGF/Mathematik/Grothmann/Materialien/HF_sections/content/Numerik-Skript.pdf

Edit: Ist zu klein, schau es dir lieber im Original an... [sorry]

Liebe Grüße
Stefan

Dateianhänge:
Anhang Nr. 1 (Typ: png) [nicht öffentlich]
Bezug
                
Bezug
Quellen/Links zu lin. Algebra: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:33 Fr 04.11.2005
Autor: Karl_Pech

Hallo Stefan!


Vielen Dank für die Hilfe! Ich schau's mir an, und kann dann ja immer noch Rückfragen stellen. ;-)


Viele Grüße
Karl
[user]




Bezug
                
Bezug
Quellen/Links zu lin. Algebra: Frobenius-Matrizen: Beweis
Status: (Frage) beantwortet Status 
Datum: 13:17 Do 29.12.2005
Autor: Karl_Pech

Liebe Mitglieder!


Ich habe mich an folgender Aufgabe versucht, und wollte wissen, ob meine Gedanken dazu richtig sind! :-)


Zuerst definieren wir eine Frobenius- bzw. Eliminationsmatrix:


[mm]F_{kj}\left(\alpha\right) := \begin{pmatrix}1&{}&{}&{}\\ {}&\ddots&{}&{}\\ {}&\alpha&\ddots&{}\\ {}&{}&{}&1\end{pmatrix} \in \mathbb{K}^{n\times n}[/mm]


heißt [mm]{\color{magenta} \texttt{Frobenius--Matrix}}[/mm]. Das [mm]\alpha[/mm] steht in der [mm]k\texttt{--ten}[/mm] Zeile und [mm]j\texttt{--ten}[/mm] Spalte. Es handelt sich ansonsten um die Einheitsmatrix von [mm]\mathbb{K}^{n\times n}[/mm].


Bemerkung 1.:    Die Matrix [mm]\widetilde{A}:=F_{kj}\left(\alpha\right)A[/mm] entsteht aus [mm]A[/mm] indem man das [mm]\alpha\texttt{--fache}[/mm] der [mm]j\texttt{--ten}[/mm] Zeile von [mm]A[/mm] zur [mm]k\texttt{--ten}[/mm] Zeile von [mm]A[/mm] dazuaddiert.


Die Matrix [mm]\widehat{A} := AF_{kj}\left(\alpha\right)[/mm] entsteht aus [mm]A[/mm] indem man das [mm]\alpha\texttt{--fache}[/mm] der [mm]k\texttt{--ten}[/mm] Spalte zur [mm]j\texttt{--ten}[/mm] Spalte von [mm]A[/mm] addiert.


Bemerkung 2.:    Es gilt:


[mm]F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right) := \begin{pmatrix} 1 & {} & {} & {} & {} & {}\\ {} & \ddots & {} & {} & {} & {}\\ {} & {} & 1 & {} & {} & {}\\ {} & {} & \alpha_{k+1} & \ddots & {} & {}\\ {} & {} & \vdots & {} & \ddots & {}\\ {} & {} & \alpha_n & {} & {} & 1 \end{pmatrix}[/mm], was ich wohl auch noch beweisen werde müssen.


Bemerkung 3.:    Sei nun [mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right) := F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right)[/mm].


Man zeige: [mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right)^{-1} = F_k\left(-\alpha_{k+1},\dotsc,-\alpha_n\right)[/mm].



Ich dachte nun, daß sich hier ein Beweis durch vollständige Induktion anbietet. Mein Problem ist jedoch, daß ich nicht weiß, ob ich den Induktionsanfang richtig gemacht habe. War es richtig die Induktion über [mm]n[/mm] laufen zu lassen, oder wäre [mm]k[/mm] richtig gewesen?



[mm]\underline{\texttt{Induktionsanfang }\left(n = 2\right):}[/mm]


[mm]F_2\left(\alpha_2\right)^{-1} = \begin{pmatrix} 1 & 0 & 0 & \dots & 0\\ \alpha_2 & 1 & 0 & \ddots & \vdots\\ 0 & 0 & 1 & \ddots & 0\\ \vdots & \vdots & \ddots & \ddots & 0\\ 0 & 0 & \dots & 0 & 1 \end{pmatrix}^{-1} \in \mathbb{K}^{n\times n}[/mm]


Wir benutzen die Gauss-Inversion:


[Dateianhang nicht öffentlich]


und erhalten


[mm]\left(\begin{array}{ccccc|ccccc} 1 & 0 & 0 & \dots & 0 & 1 & 0 & 0 & \dots & 0\\ 0 & 1 & 0 & \ddots & \vdots & -\alpha_2 & 1 & 0 & \ddots & \vdots\\ 0 & 0 & 1 & \ddots & 0 & 0 & 0 & 1 & \ddots & 0\\ \vdots & \vdots & \ddots & \ddots & 0 & \vdots & \vdots & \ddots & \ddots & 0\\ 0 & 0 & \dots & 0 & 1 & 0 & 0 & \dots & 0 & 1 \end{array}\right)[/mm]


Es gilt also: [mm]F_2\left(\alpha_2\right)^{-1} = F_2\left(-\alpha_2\right)\;\Diamond[/mm]


[mm]\underline{\texttt{Induktionsschritt }\left(n \leadsto n+1\right):}[/mm]


Angenommen die Aussage wäre für $k [mm] \in \mathbb{N}$ [/mm] und $n [mm] \in \mathbb{N}_{\ge 2}$ [/mm] bewiesen. Dann gilt:


[mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_{n+1}\right)^{-1} \mathop = ^{\texttt{Definition}} \left(F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right)F_{n+1,k}\left(\alpha_{n+1}\right)\right)^{-1} \mathop = ^{\left(AB\right)^{-1} = B^{-1}A^{-1}} F_{n+1,k}^{-1}\left(\alpha_{n+1}\right)F_k^{-1}\left(\alpha_{k+1},\dotsc,\alpha_n\right)[/mm]

[mm]\mathop = ^{\texttt{Induktionsannahme}} F_{n+1,k}^{-1}\left(\alpha_{n+1}\right)F_k\left(-\alpha_{k+1},\dotsc,-\alpha_n\right)[/mm]


Um zu sehen, daß [mm]F_{n+1,k}^{-1}\left(\alpha_{n+1}\right) = F_{n+1,k}\left(-\alpha_{n+1}\right)[/mm] ist, gehen wir genauso vor, wie beim Induktionsanfang. Demnach steht im Matrix-Eintrag von [mm] $F_k$ [/mm] in der [mm]n\texttt{--ten}[/mm] Zeile eine 1 und sonst nur Nullen. Eine Multiplikation dieser Zeile mit [mm] $-\alpha_{n+1}$ [/mm] und anschließender Addition mit der [mm]n+1\texttt{--ten}[/mm] Zeile zeigt dies.
Jetzt müssen wir noch die Matrizen ausmultiplizieren:

Da die [mm] $F_{n+1,k}$ [/mm] sich letztlich nur in der letzten Zeile von der Einheitsmatrix unterscheidet, wird [mm] $-\alpha_{n+1}$ [/mm] letztlich mit der 1 aus der [mm] $k\texttt{--ten}$ [/mm] Spalte von [mm] $F_k$ [/mm] mutlipliziert. Das Ergebnis ist dann
[mm] $F_k\left(-\alpha_{k+1},\dotsc,-\alpha_{n+1}\right)\;\Box$. [/mm]


Wäre das so ok? Ich würde außerdem noch gerne wissen, warum diese Eigenschaft der Frobenius-Matrizen wichtig ist? Wo ist sie den entscheidend?



Viele Grüße
Karl





Dateianhänge:
Anhang Nr. 1 (Typ: png) [nicht öffentlich]
Bezug
                        
Bezug
Quellen/Links zu lin. Algebra: Induktion unnötig
Status: (Antwort) fertig Status 
Datum: 14:57 Do 29.12.2005
Autor: moudi

Hallo Karl

Ich würde es so machen:

Zuerst zeige ich, dass die Frobeniusmatrizen [mm] $F_{i,k}(\alpha_1)$ [/mm] und [mm] $F_{j.k}(\alpha_2)$ [/mm] kommutieren.

Dann benutze ich, dass für Matrizen [mm] $(ABCD)^{-1}=D^{-1}C^{-1}B^{-1}A^{-1}$ [/mm] ist.

mfG Moudi

Bezug
                                
Bezug
Quellen/Links zu lin. Algebra: sogleich ausprobieren! ;-)
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:15 Do 29.12.2005
Autor: Karl_Pech

Hallo Moudi!


> Ich würde es so machen:
>  
> Zuerst zeige ich, dass die Frobeniusmatrizen
> [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.
>  
> Dann benutze ich, dass für Matrizen
> [mm](ABCD)^{-1}=D^{-1}C^{-1}B^{-1}A^{-1}[/mm] ist.


Vielen Dank schonmal! Ich probier's jetzt aus...



Viele Grüße
Karl
[user]




Bezug
                                
Bezug
Quellen/Links zu lin. Algebra: Nachfrage zur Schreibweise
Status: (Frage) beantwortet Status 
Datum: 15:47 Do 29.12.2005
Autor: Karl_Pech

Hallo Moudi!


> Zuerst zeige ich, dass die Frobeniusmatrizen
> [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.


Irgendwie komme ich mit den Indizes noch nicht so klar:


[mm] $F_{i,k}\left(\alpha_1\right)$ [/mm] bedeutet doch, daß [mm] $\alpha_1$ [/mm] in Zeile [mm]i[/mm] und Spalte [mm]k[/mm] steht. Aber dann müßte es doch entweder [mm]\alpha_i[/mm] oder [mm] $F_{{\color{red}0},k}$ [/mm] lauten?


Und mit "kommutieren" meinst Du jetzt folgendes, oder?


[mm] $F_{i,k}\left(\alpha_1\right)F_{j,k}\left(\alpha_2\right) [/mm] = [mm] F_{j,k}\left(\alpha_2\right)F_{i,k}\left(\alpha_1\right)$ [/mm]


Soll also das gezeigt werden?



Viele Grüße
Karl





Bezug
                                        
Bezug
Quellen/Links zu lin. Algebra: Antwort
Status: (Antwort) fertig Status 
Datum: 20:23 Do 29.12.2005
Autor: moudi


> Hallo Moudi!

Hallo Karl

>  
>
> > Zuerst zeige ich, dass die Frobeniusmatrizen
> > [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.
>  
>
> Irgendwie komme ich mit den Indizes noch nicht so klar:
>  
>
> [mm]F_{i,k}\left(\alpha_1\right)[/mm] bedeutet doch, daß [mm]\alpha_1[/mm] in
> Zeile [mm]i[/mm] und Spalte [mm]k[/mm] steht. Aber dann müßte es doch
> entweder [mm]\alpha_i[/mm] oder [mm]F_{{\color{red}0},k}[/mm] lauten?

Das mit den Alpha's war mir nicht so wichtig, wichtig ist, dass die Frobeniusmatrizen kommutieren, wenn sie den gleichen zweiten Index haben:
[mm]F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) = F_{j,k}\left(\alpha_j\right)F_{i,k}\left(\alpha_i\right)[/mm]

>  
>
> Und mit "kommutieren" meinst Du jetzt folgendes, oder?
>  
>
> [mm]F_{i,k}\left(\alpha_1\right)F_{j,k}\left(\alpha_2\right) = F_{j,k}\left(\alpha_2\right)F_{i,k}\left(\alpha_1\right)[/mm]

Ja das meinte ich, siehe oben.

>  
>
> Soll also das gezeigt werden?
>  
>
>
> Viele Grüße
>  Karl

mfG Moudi
  

Bezug
                                                
Bezug
Quellen/Links zu lin. Algebra: Beweisversuch
Status: (Frage) beantwortet Status 
Datum: 13:24 Fr 30.12.2005
Autor: Karl_Pech

Hallo Moudi!


Also ich habe es jetzt einige Zeit versucht, konnte mir das Ganze aber nur schwer im Kopf vorstellen. [sorry] Hier ist jedenfalls mein Versuch:


Seien also


[mm]F_{i,k}\left(\alpha_i\right) = \left(\begin{array}{ccccccccccc} 1 & 0 & \hdotsfor{8} & 0\\ 0 & \ddots & 0 & \hdotsfor{7} & 0\\ \vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\ 0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\ \vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\ 0 & \dots & 0 & \alpha_i & 0 & \dots & 0 & 1 & 0 & \dots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1 \end{array}\right)[/mm]


und


[mm]F_{j,k}\left(\alpha_j\right) = \left(\begin{array}{ccccccccccc} 1 & 0 & \hdotsfor{8} & 0\\ 0 & \ddots & 0 & \hdotsfor{7} & 0\\ \vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\ 0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\ \vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\ 0 & \dots & 0 & \alpha_j & 0 & \dots & 0 & 1 & 0 & \dots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1 \end{array}\right)[/mm]


die besagten Frobenius-Matrizen.


Jetzt multiplizieren wir aus:


[mm]F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) = \left(\begin{array}{ccccccccccc} 1 & 0 & \hdotsfor{8} & 0\\ 0 & \ddots & 0 & \hdotsfor{7} & 0\\ \vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\ 0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\ \vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\ 0 & \dots & 0 & \alpha_i & 0 & \dots & 0 & 1 & 0 & \dots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1 \end{array}\right)\left(\begin{array}{ccccccccccc} 1 & 0 & \hdotsfor{8} & 0\\ 0 & \ddots & 0 & \hdotsfor{7} & 0\\ \vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\ 0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\ \vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\ 0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\ 0 & \dots & 0 & \alpha_j & 0 & \dots & 0 & 1 & 0 & \dots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\ 0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1 \end{array}\right)[/mm]


Ehrlich gesagt hatte ich auch mit dieser graphischen Darstellung zunächst Probleme... [kopfkratz3]. Allerdings hat sie mich auf eine andere Idee gebracht. ;-) Anstatt alles auszumultiplizieren, könnte man sich doch zunutze machen, daß eine Matrix ja bloß ein Vektor ist, dessen Komponenten ebenfalls Vektoren sind. Je nachdem wie man multipliziert sind diese Vektorkomponenten entweder in transponierter Form oder eben nicht. Dann gilt also für die [mm]i\texttt{--te}[/mm] Zeile von [mm] $F_{i,k}$: [/mm]


[mm]\left(0,\dotsc,0,\alpha_i,0\dotsc,0,1,0,\dotsc,0\right) = \alpha_i + \left(0,\dotsc,0,0,0\dotsc,0,1,0,\dotsc,0\right)[/mm]


Dann wäre eine Frobenius-Matrix ja bloß eine andere Schreibweise für die Addition der Einheitsmatrix mit einem Skalar, und jetzt kann man mit Matrizengesetzen arbeiten. Ich habe diese Idee mal weiterverfolgt:


[mm] $F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) [/mm] = [mm] \left(\alpha_{i,k} + E\right)\left(\alpha_{j,k}+E\right) [/mm] = [mm] \left(\alpha_{i,k} + E\right)\alpha_{j,k} [/mm] + [mm] \alpha_{i,k} [/mm] + E = [mm] \alpha_{i,k}\alpha_{j,k} [/mm] + [mm] E\alpha_{j,k} [/mm] + [mm] F_{i,k}\left(\alpha_i\right)$ [/mm]


und


[mm] $F_{j,k}\left(\alpha_j\right)F_{i,k}\left(\alpha_i\right) [/mm] = [mm] \left(\alpha_{j,k} + E\right)\left(\alpha_{i,k}+E\right) [/mm] = [mm] \left(\alpha_{j,k} + E\right)\alpha_{i,k} [/mm] + [mm] \alpha_{j,k} [/mm] + E = [mm] \alpha_{j,k}\alpha_{i,k} [/mm] + [mm] E\alpha_{i,k} [/mm] + [mm] F_{j,k}\left(\alpha_j\right)$ [/mm]


Weiter bin ich aber nicht gekommen. Wenn man das gleichsetzt, fällt der erste Summand natürlich weg, aber wie sieht man die Gleichheit der anderen Summanden?



Viele Grüße
Karl





Bezug
                                                        
Bezug
Quellen/Links zu lin. Algebra: Elementarmatrizen
Status: (Antwort) fertig Status 
Datum: 20:27 Fr 30.12.2005
Autor: moudi

Hallo Karl

Man kann explizite Rechnen mit Matrizen umgehen, wenn man die Elementarmatrizen [mm] $E_{i,j}j$ [/mm] einführt.

[mm] $E_{i,j}$ [/mm] besteht aus lauter Nullen ausser das Element in der i-ten Zeile und k-ten Spalte ist eine 1.

Folgendes muss man nun Nachweisen (durch explizites ausmultiplizieren der Matrizen, ein bisschen Arbeit muss sein ;-)): [mm] $E_{i,j}E_{k,l}=0$ [/mm] (Nullmatrix), wenn  [mm] $j\neq [/mm] k$ und [mm] $E_{i,j}E_{k,l}=E_{i,l}$, [/mm] wenn $j=k$.

Es gilt dann [mm] $F_{i,k}(\alpha_i)=\alpha_i E_{i,k}+E$ [/mm] (E Einheitsmatrix).

Und jetzt rechnen wir nach:
[mm] $F_{i,k}(\alpha_i)F_{j,k}(\alpha_j)=(\alpha_i E_{i,k}+E)(\alpha_j E_{j,k}+E)=\alpha_i\alpha_j \underbrace{E_{i,k}E_{j,k}}_{0,\ \mathrm{da}\ k\neq j}+\alpha_i E_{i,k}E+\alpha_j [/mm] E [mm] E_{j,k}+E^2=\alpha_i E_{i,k}+\alpha_j E_{j,k}+E$ [/mm]

Es ist klar, dass man dasselbe erhält, wenn man die umgekehrte Reihenfolge berechnet d.h. i und j vertauscht (da auch [mm] $i\neq [/mm] k$).

Auf die gleiche Art weisst man nach, dass [mm] $\left(F_{i,j}(\alpha)\right)^{-1}=F_{i,j}(-\alpha)$. [/mm]
In der Tat:
[mm] $F_{i,j}(\alpha) F_{i,j}(-\alpha)=(\alpha E_{i,j}+E)(-\alpha E_{i,j}+E)= -\alpha^2\underbrace{E_{i,j}^2}_{0,\ \mathrm{da}\ i\neq j}+ \underbrace{\alpha E_{i,j}E-\alpha E E_{i,j}}_{0}+E^2=E$. [/mm]

Man beachte auch, dass für Frobeniusmatrizen [mm] $F_{i,j}(\alpha)$ [/mm] immer [mm] $i\neq [/mm] j$ ist.

mfG Moudi



Bezug
                                                                
Bezug
Quellen/Links zu lin. Algebra: Danke!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 21:46 Fr 30.12.2005
Autor: Karl_Pech

Hallo Moudi!


Also ich finde es schon Klasse, daß Mathematik auch mal einfach werden kann. ;-) Auf die Idee die Frobenius-Matrizen noch weiter zu "zerlegen" bin ich irgendwie gar nicht gekommen. [kopfkratz3]


> Folgendes muss man nun Nachweisen (durch explizites
> ausmultiplizieren der Matrizen, ein bisschen Arbeit muss
> sein ;-)): [mm]E_{i,j}E_{k,l}=0[/mm] (Nullmatrix), wenn  [mm]j\neq k[/mm] und
> [mm]E_{i,j}E_{k,l}=E_{i,l}[/mm], wenn [mm]j=k[/mm].


Also, wenigstens diesen Beweis möchte ich nun mal lösen und die Beweiskette schließen. [happy]


Es gilt also:


[mm]E_{i,j}E_{k,l} = \begin{pmatrix}(0,\dotsc,0)\\\vdots\\(0,\dotsc,0)\\(0,\dotsc,0,1,0,\dotsc,0)\\(0,\dotsc,0)\\\vdots\\(0,\dotsc,0)\end{pmatrix}\left( \begin{pmatrix}0\\\vdots\\0\end{pmatrix}, \dotsc, \begin{pmatrix}0\\\vdots\\0\end{pmatrix}, \begin{pmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{pmatrix}, \begin{pmatrix}0\\\vdots\\0\end{pmatrix}, \dotsc, \begin{pmatrix}0\\\vdots\\0\end{pmatrix} \right)[/mm] mit [mm]E_{i,j} \in \mathbb{K}^{n\times n}[/mm] und [mm]E_{k,l} \in \mathbb{K}^{n\times n}[/mm]


Wir sehen (anhand der graphischen Darstellungen :-)), daß die ersten [mm]i-1[/mm] komponentenweisen Multiplikationen dieser beiden Vektoren so aussehen:


[mm](0,\dotsc,0)\begin{pmatrix}0\\\vdots\\0\end{pmatrix} = 0[/mm]


Die ersten [mm]i-1[/mm] Zeilen des Matrizenprodukts sehen also so aus:


[mm](0,\dotsc,0)[/mm]


Ein analoges Argument gilt auch für die Zeilen [mm]i+1,\dotsc,n[/mm] des Matrizenprodukts.


Was passiert bei der Multiplikation in der [mm]i\texttt{--ten}[/mm] Zeile? Die Vektorvektorkomponente


[mm](0,\dotsc,0,1,0,\dotsc,0)[/mm]


wird zunächst mit den [mm]l-1[/mm] Spaltenvektoren von [mm]E_{k,l}[/mm] multipliziert. Damit stehen in der [mm]i\texttt{--ten}[/mm] Zeile des Matrizenprodukts dort [mm]l-1[/mm] Nullen. Analoges gilt auch für die Spaltenvektoren [mm]l+1,\dotsc,n[/mm]. Also stehen dort nach dem Ausmultiplizieren nur Nullen. Damit bleibt nur noch eine Multiplikation:


[mm](0,\dotsc,0,1,0,\dotsc,0)\begin{pmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{pmatrix}[/mm]


Die 1 des ersten Vektors steht in Spalte [mm]j[/mm], die des Anderen in Zeile [mm]k[/mm].

Für [mm]k = j[/mm] gilt also:


[mm]0^2 + \dotsb + 0^2 + 1^2 + 0^2 + \dotsb + 0^2 = 1[/mm]


Für [mm]k \ne j[/mm]:


[mm]0^2 + \dotsb + 0^2 + 1\cdot{0} + 0^2 + \dotsb + 0^2 + 0\cdot{1} + 0^2 + \dotsb + 0^2 = 0[/mm]


Das Ergebnis dieser (als einzigen) bemerkenswerten Multiplikation wird also (wie schon oben erwähnt) in die [mm]i\texttt{--te}[/mm] Zeile und [mm]l\texttt{--te}[/mm] Spalte des Produkts eingetragen. War es eine 1, so erhalten wir [mm]E_{i,l}[/mm]. Ansonsten erhalten wir [mm]0 \in \mathbb{K}^{n\times n}[/mm]. Damit ist alles gezeigt! [hot] [mm]\Box[/mm]


Nochmals vielen Dank!

und einen guten Rutsch ins neue Jahr! :-)




Bezug
                                                                        
Bezug
Quellen/Links zu lin. Algebra: Ach ja, noch 'was vergessen...
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:04 Fr 30.12.2005
Autor: Karl_Pech

Eingabefehler: "\begin" und "\end" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

$\left(F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right)\right)^{-1} \mathop = ^{\texttt{Matrizengesetz}} F_{n,k}^{-1}\left(F_{k+1,k}\cdot{}\ldots\cdot{}F_{n-1,k}\right)^{-1} = \dotsb = F_{n,k}^{-1}\cdot{}\ldots\cdot{}F_{k+1,k}^{-1} \mathop = ^{\texttt{siehe Diskussion! }\textrm{:-)}} F_{n,k}\left(-\alpha_n\right)\cdot{}\ldots\cdot{}F_{k+1,k}\left(-\alpha_{k+1}\right)\end{subarray}}$


Da die Frobenius-Matrizen kommutieren ergibt sich die Behauptung.




Bezug
                                                                        
Bezug
Quellen/Links zu lin. Algebra: kürzerer Beweis dafür möglich?
Status: (Frage) beantwortet Status 
Datum: 00:52 Mi 04.01.2006
Autor: Karl_Pech

Hallo Moudi!


Ich habe hier noch eine andere Aufgabe (aus unserer Testklausur), die wie ich finde, sehr gut hierher passt. Ich wollte nur wissen, ob folgende Lösung richtig wäre. Wenn ja, so hat die Lösung leider den Nachteil, daß ich dafür den Beweis zu den beiden Eigenschaften der Elementarmatrizen liefern müßte. Und dieser Beweis ist bei mir leider sehr lang geworden. ;-) Weißt Du eventuell einen Weg meinen Beweis etwas kürzer zu gestalten?


Also hier die Aufgabe:


Sei $P [mm] \in \mathbb{R}^{n\times n}$ [/mm] eine Permutationsmatrix. Zeige:
[mm] $P^{-1} [/mm] = [mm] P^T$ [/mm]


Beweis:


Sei [mm]E_{i_k,j_k} \in \mathbb{R}^{n\times n}[/mm] eine [mm]k\texttt{--te}[/mm] Matrix, deren Einträge überall 0 sind mit Ausnahme des Eintrags [mm]e_{i_k,j_k} := 1[/mm]. Eine solche Matrix nennen wir Elementarmatrix. Dann existiert eine Summe von [mm]n[/mm] Elementarmatrizen, die [mm]P[/mm] darstellt. (Muß man das auch noch zeigen? Hoffentlich nicht. :-)) Angenommen:


[mm]P = \sum_{k=1}^{n}{E_{i_k,j_k}}[/mm]


ist diese Summe. Dann gilt:


[mm]PP^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{i_z,j_z}}\right)^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{j_z,i_z}}\right)[/mm],


denn eine Matrix transponiert man, indem man die Indizes eines jeden ihrer Einträge vertauscht (reicht das als Begründung oder muß ich diesen Schritt auch irgendwie zeigen?).


Nach den Distributivgesetzen für Matrizen gilt:


[mm]PP^T = \sum_{z=1}^{n}{\left(\left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)E_{j_z,i_z}\right)} = \sum_{z=1}^{n}{\sum_{k=1}^{n}{E_{i_k,j_k}}E_{j_z,i_z}}[/mm]


In Artikel Nr. 961 [happy], habe ich folgende Gesetze für Elementarmatrizen gezeigt: :-)


Seien [mm]E_{a,b}, E_{c,d} \in \mathbb{R}^{n\times n}[/mm] Elementarmatrizen. Dann gilt:


[mm]E_{a,b}E_{c,d} = \begin{cases}E_{a,d},&\texttt{für }b=c\\0,&\texttt{sonst}\end{cases}[/mm]


Jede Elementarmatrix aus der [mm]P\texttt{--Summe}[/mm] wird beim Ausmultiplizieren mit jeder Elementarmatrix aus der [mm]P^T\texttt{--Summe}[/mm] multipliziert. Wird dabei eine Elementarmatrix [mm]E_{a,b}[/mm] mit ihrer Transponierten multipliziert, ergibt das die Matrix [mm]E_{a,a}[/mm]. Bei jeder Multiplikation entstehen so [mm]n-1[/mm] Nullen, und eine "Diagonal-"Elementarmatrix. (Reichen solche Begründungen, oder kann man das schöner und kürzer ausdrücken?) Wir erhalten die Summe


[mm]PP^T = \sum_{i = 1}^n{E_{i,i}} = E[/mm]


Da die Elementarmatrizen kommutieren, gilt ein analoges Argument auch für [mm]P^TP[/mm]. Also gilt [mm]PP^{-1} = E = P^TP = PP^T[/mm], und durch Linksmultiplikation mit [mm]P^{-1}[/mm]:


[mm]P^{-1} = P^T\quad\Box[/mm]


Wäre das so ok? Und könnte man diesen Beweis insgesamt noch kürzer fassen? Vermutlich ist jetzt nicht nur der Beweis sondern auch die Klausur(zeit) um mit nur einer gelösten Aufgabe. [Dateianhang nicht öffentlich]


Vielen Dank und ein frohes neues Jahr (falls ich es vergessen haben sollte [sorry] [sorry])!




Bezug
                                                                                
Bezug
Quellen/Links zu lin. Algebra: nicht wesentlich kürzer
Status: (Antwort) fertig Status 
Datum: 17:16 Mi 04.01.2006
Autor: moudi


> Hallo Moudi!

Hallo Karl

>  
>
> Ich habe hier noch eine andere Aufgabe (aus unserer
> Testklausur), die wie ich finde, sehr gut hierher passt.
> Ich wollte nur wissen, ob folgende Lösung richtig wäre.
> Wenn ja, so hat die Lösung leider den Nachteil, daß ich
> dafür den Beweis zu den beiden Eigenschaften der
> Elementarmatrizen liefern müßte. Und dieser Beweis ist bei
> mir leider sehr lang geworden. ;-) Weißt Du eventuell einen
> Weg meinen Beweis etwas kürzer zu gestalten?
>  
>
> Also hier die Aufgabe:
>  
>
> Sei [mm]P \in \mathbb{R}^{n\times n}[/mm] eine Permutationsmatrix.
> Zeige:
>  [mm]P^{-1} = P^T[/mm]
>  
>
> Beweis:
>  
>
> Sei [mm]E_{i_k,j_k} \in \mathbb{R}^{n\times n}[/mm] eine
> [mm]k\texttt{--te}[/mm] Matrix, deren Einträge überall 0 sind mit
> Ausnahme des Eintrags [mm]e_{i_k,j_k} := 1[/mm]. Eine solche Matrix
> nennen wir Elementarmatrix. Dann existiert eine Summe von [mm]n[/mm]
> Elementarmatrizen, die [mm]P[/mm] darstellt. (Muß man das auch noch
> zeigen? Hoffentlich nicht. :-)) Angenommen:
>  
>
> [mm]P = \sum_{k=1}^{n}{E_{i_k,j_k}}[/mm]
>  
>
> ist diese Summe. Dann gilt:
>  
>
> [mm]PP^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{i_z,j_z}}\right)^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{j_z,i_z}}\right)[/mm],
>  
>
> denn eine Matrix transponiert man, indem man die Indizes
> eines jeden ihrer Einträge vertauscht (reicht das als
> Begründung oder muß ich diesen Schritt auch irgendwie
> zeigen?).
>  
>
> Nach den Distributivgesetzen für Matrizen gilt:
>  
>
> [mm]PP^T = \sum_{z=1}^{n}{\left(\left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)E_{j_z,i_z}\right)} = \sum_{z=1}^{n}{\sum_{k=1}^{n}{E_{i_k,j_k}}E_{j_z,i_z}}[/mm]
>  
>
> In Artikel Nr. 961 [happy], habe ich folgende
> Gesetze für Elementarmatrizen gezeigt: :-)
>  
>
> Seien [mm]E_{a,b}, E_{c,d} \in \mathbb{R}^{n\times n}[/mm]
> Elementarmatrizen. Dann gilt:
>  
>
> [mm]E_{a,b}E_{c,d} = \begin{cases}E_{a,d},&\texttt{für }b=c\\0,&\texttt{sonst}\end{cases}[/mm]
>  
>
> Jede Elementarmatrix aus der [mm]P\texttt{--Summe}[/mm] wird beim
> Ausmultiplizieren mit jeder Elementarmatrix aus der
> [mm]P^T\texttt{--Summe}[/mm] multipliziert. Wird dabei eine
> Elementarmatrix [mm]E_{a,b}[/mm] mit ihrer Transponierten
> multipliziert, ergibt das die Matrix [mm]E_{a,a}[/mm]. Bei jeder
> Multiplikation entstehen so [mm]n-1[/mm] Nullen, und eine
> "Diagonal-"Elementarmatrix. (Reichen solche Begründungen,
> oder kann man das schöner und kürzer ausdrücken?) Wir
> erhalten die Summe
>  
>
> [mm]PP^T = \sum_{i = 1}^n{E_{i,i}} = E[/mm]

Ja es stimmt so schon, allerdings kommt nirgends so richtig zum Ausdruck, dass es sich bei P um eine Permutationsmatrix handelt.
Sei [mm] $\sigma:\{1,\dots,n\}\to\{1,\dots,n\}$ [/mm] eine Permutation und [mm] $P=\sum_{i=1}^{n}E_{i,\sigma(i)}$ [/mm] die entsprechende Permutationsmatrix.
Dann ist [mm] $P^T=\sum_{j=1}^{n}E_{\sigma(j),j}$ [/mm] und es gilt
[mm] $P^TP=\left(\sum_{j=1}^{n}E_{\sigma(j),j}\right)\left(\sum_{i=1}^{n}E_{i,\sigma(i)}\right)$ [/mm]
   [mm] $=\sum_{j=1}^{n}\sum_{i=1}^{n} \underbrace{E_{\sigma(j),j}E_{i,\sigma(i)}}_{0,\ \mathrm{falls}\ i\neq j}$ [/mm]
   [mm] $=\sum_{j=1}^{n}E_{\sigma(j),\sigma(j)}=I$, [/mm] da [mm] $\sigma(j)$ [/mm] alle Zahlen von 1 bis n durchläuft.

>  
>
> Da die Elementarmatrizen kommutieren, gilt ein analoges

aufgepasst es kommutieren nicht alle Elementarmatrizen. [mm] $E_{13}E_{32}=E_{12}$ [/mm] aber [mm] $E_{32}E_{13}=0$, [/mm]

> Argument auch für [mm]P^TP[/mm]. Also gilt [mm]PP^{-1} = E = P^TP = PP^T[/mm],

Es genügt für quadratische Matrizen zu zeigen, dass [mm] $B=A^{-1}$, [/mm] wenn man eine der beiden Möglichkeiten $AB=I$ oder $BA=I$ zeigt.

> und durch Linksmultiplikation mit [mm]P^{-1}[/mm]:
>  
>
> [mm]P^{-1} = P^T\quad\Box[/mm]
>  
>
> Wäre das so ok? Und könnte man diesen Beweis insgesamt noch
> kürzer fassen? Vermutlich ist jetzt nicht nur der Beweis
> sondern auch die Klausur(zeit) um mit nur einer gelösten
> Aufgabe. [Dateianhang nicht öffentlich]

Vielleich etwas kürzer ist die Begründung, dass es sich bei Permutationsmatrizen um orthogonale Matrizen handelt, denn
wenn man die Spalten einer Permutationsmatriz als Vektoren anschaut, sind verschiedene Spalten zueinander orthogonal, (das Skalarprodukt ist 0) und die Länge 1. Für orthogonale Matrizen P weiss man, dass [mm] $P^{-1}=P^T$. [/mm]

>  
>
> Vielen Dank und ein frohes neues Jahr (falls ich es
> vergessen haben sollte [sorry] [sorry])!
>  
>
>  

Bezug
                                                                                        
Bezug
Quellen/Links zu lin. Algebra: Danke!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:21 Mi 04.01.2006
Autor: Karl_Pech

Hallo Moudi!


Vielen Dank für deine Hilfe!



Liebe Grüße
Karl
[user]





Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]