Determinante Verständnisfrage < Determinanten < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:35 Mi 10.12.2008 | Autor: | farnold |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hallo,
habe mich in der letzten Zeit ein bisschen mit der Determinante beschäftigt und habe auch gleich ein paar Fragen dazu:
sein A die matrix [mm] \pmat{ 1 & 2 \\ 3 & 4 }
[/mm]
1.) in meinem Skript steht :
a[i] und a[j] seien beliebige, unterschiedliche Zeilen der Matrix, die anderen zeilen lasse ich wegen der übersicht weg
det [mm] \pmat{a[i]' +a[i]'' \\ a[j] } [/mm] ist dasselbe wie det [mm] \pmat{ a[i]' \\ a[j]'' } [/mm] + det [mm] \pmat{ a[i]'' \\ a[j] }
[/mm]
warum ist das so (so nehme ich ja die Zeile a[j] "2 mal"), gibt es dafür einen beweis oder muss man das von gott gegeben annhemen?
2.)
det B = [mm] \pmat{ lambda*a[i] \\ a[j] } [/mm] <=> lambda* det [mm] \pmat{ a[i] \\ a[j] }
[/mm]
meine Frage: wäre dies auch äquivalent zu [mm] \pmat{ a[i] \\ lambda*a[j] }
[/mm]
ist diese äquivalenz einfach per definiton festgelegt worden oder kann man diese auch beweisen?
könntet ihr mir für 1.) und 2.) ein Beispiel bezgl. A oder sonst einer Matrix angeben, das wäre spet nett
3.) noch eine kurze Frage zum sign(sigma)
sign(sigma) ist bekanntlich 1 falls die anzahl der Fehlstände gerade und -1 falls die Fehlstände ungerade sind. Was Fehlstände sind ist mir auch klar, nur unklar ist warum man mittels der Formel:
sign(sigma) = [mm] \produkt_{i
mit hilfeersuchenden grüßen fa
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 06:05 Do 11.12.2008 | Autor: | Fulla |
Hallo farnold,
die ersten beiden Eigenschaften der Determinante, die dich interessieren, folgen aus der Multilinearität der Determinante.
> 1.) in meinem Skript steht :
> a[i] und a[j] seien beliebige, unterschiedliche Zeilen der
> Matrix, die anderen zeilen lasse ich wegen der übersicht
> weg
> det [mm]\pmat{a[i]' +a[i]'' \\ a[j] }[/mm] ist dasselbe wie det [mm]\pmat{ a[i]' \\ a[j]'' }[/mm] + det [mm]\pmat{ a[i]'' \\ a[j] }[/mm]
> warum ist das so (so nehme ich ja die Zeile a[j] "2 mal"),
> gibt es dafür einen beweis oder muss man das von gott
> gegeben annhemen?
das ist eine Eigenschaft einer multilinearen Abbildung. Hier ein Beispiel:
[mm] $\det\begin{pmatrix} 6&8\\2&3\end{pmatrix}=18-16=2$
[/mm]
oder anders geschrieben:
[mm] $\det\begin{pmatrix} 2+4&3+5\\2&3\end{pmatrix}=\det\begin{pmatrix} 2&3\\2&3\end{pmatrix}+\det\begin{pmatrix} 4&5\\2&3\end{pmatrix}=0+2=2$
[/mm]
> 2.) det B = [mm]\pmat{ lambda*a[i] \\ a[j] }[/mm] <=> lambda* det [mm]\pmat{ a[i] \\ a[j] }[/mm]
> meine Frage: wäre dies auch äquivalent zu [mm]\pmat{ a[i] \\ lambda*a[j] }[/mm]
> ist diese äquivalenz einfach per definiton festgelegt
> worden oder kann man diese auch beweisen?
> könntet ihr mir für 1.) und 2.) ein Beispiel bezgl. A oder sonst einer Matrix angeben, das wäre spet nett
und das ist eine weitere Eigenschaft der Multilinearität. Beispiel:
[mm] $\det\begin{pmatrix} 6&8\\2&3\end{pmatrix}=\det\begin{pmatrix} 2*3&2*4\\2&3\end{pmatrix}=2*\det\begin{pmatrix} 3&4\\2&3\end{pmatrix}=2*1=2$
[/mm]
Wie habt ihr denn die Determinante definiert?
Lieben Gruß,
Fulla
|
|
|
|
|
Hallo,
den wesentlichen Hinweis hierzu gibt Fulla mit der Frage danach, wie die Determinante bei Euch definiert wurde.
Falls Ihr die Determinante definiert habt, indem Ihr ein Bündel von Eigenschaften, zu denen die Multilinearität gehörte, vorgegeben habt und die einzige Abbildung, die diese Eigenschaften erfüllt, als "Determinante" bezeichnet habt, so ergeben sich die Eigenschaften, die Du nennst, aus der Definition.
Habt Ihr die determinante irgendwie anders eingeführt, übers Rechenschema oder so, dann kannst Du diese Eigenschaften nachrechnen.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:37 Mi 31.12.2008 | Autor: | farnold |
Hallo,
mithilfe der Determinante kann man ja viele tolle sachen machen, man kann lineare Gleichungssystem lösen, Vekotren in einer nxn Matrix auf lineare unabhängigkeit überprüfen, schauen ob ein LGS eine eindeutige Lösung hat, MAtrizen auf invertierbarkeit überprüfen usw. usf.
nun steht die Determinante eng in Verbindung mit Eigenvekoteren und Eigenwerten denn det(F - [mm] \lambda [/mm] E) = 0, darüber komme ich ja dann an die Eigenvektoren und Eigenwerte.
F:V->V
angenommen ich finde zu einer 3x3 Matrix [mm] M(f)_A [/mm] 3 Eigenvektoren bilden diese 3 Vektoren dann eine Transformationsmatrix S^-1 , sodass SMS^-1 = Diagonalmatrix bildet?
desweiteren ist Fdiag.bar <=> sind [mm] \lamda_{1},....,\lamda_{k} [/mm] paarweise verschieden Eigenwerte von F so ist V = [mm] Eig(F;\lamda_{1}) [/mm] + ... + [mm] Eig(F;\lamda_{k})
[/mm]
was heißt paarweise verschieden was bedeutet der Index 1-k?
kann hier [mm] Eig(F;\lamda_{1}) [/mm] auch mehrere Eigenvektoren enthalten? (ja oder)
die ganzen Eigenräume [mm] Eig(F;\lamda_{1}) [/mm] + ... + [mm] Eig(F;\lamda_{k}) [/mm] bilden eine Basis von V?
Heißt das nun das unsere Trafomatirx von vorhin (S^-1) auch eine Basis für V bilden würde?
dann heißt es ja das die Determinante eines Endomorphismus F:V->V unabhängig von der Wahl der Basen gleich ist,also
det( [mm] M(F)_A_A [/mm] ) = det( [mm] M(F)_A_B [/mm] )
wie ist das nun bei [mm] M(F)_A_B [/mm] und [mm] M(F)_B_A
[/mm]
gildet hier auch det( [mm] M(F)_A_A [/mm] ) = det( [mm] M(F)_A_B [/mm] ) = ( [mm] M(F)_B_B [/mm] ) = det( [mm] M(F)_A_B [/mm] )?
nun wünsche ich allen noch einen guten rutsch ins neue jahr
|
|
|
|
|
> F:V->V
> angenommen ich finde zu einer 3x3 Matrix [mm]M(f)_A[/mm] 3
> Eigenvektoren bilden diese 3 Vektoren dann eine
> Transformationsmatrix S^-1 , sodass SMS^-1 =
> Diagonalmatrix bildet?
Hallo,
wenn Du zu einer 3x3-Matrix 3 linear unabhängige Eigenvektoren findest, kannst Du diese in eine Matrix [mm] S(=_AT_E) [/mm] stellen. Diese Matrix macht aus Koordinatenvektoren bzgl. der Basis E aus Eigenvektoren Koordinatenvektoren bzgl der alten Basis A.
Es ist dann [mm] S^{-1} M(f)_A [/mm] S= [mm] M(f)_E [/mm] eine Diagonalmatrix.
>
>
> desweiteren ist Fdiag.bar <=> sind
> [mm]\lamda_{1},....,\lambda_{k}[/mm] paarweise verschieden Eigenwerte
> von F so ist V = [mm]Eig(F;\lambda_{1})[/mm] + ... +
> [mm]Eig(F;\lambda_{k})[/mm]
> was heißt paarweise verschieden
Egal welche zwei von denen Du auswählst, immer sind sie verschieden.
> was bedeutet der Index
> 1-k?
ich sehe den gar nicht .
> kann hier [mm]Eig(F;\lambda_{1})[/mm] auch mehrere Eigenvektoren
> enthalten? (ja oder)
Die Eigenräume enthalten immer viele Eigenvektoren, nämlich sämtliche Linearkombinationen aus den Basisvektoren des Eigenraumes.
Aber Du meinst wohl was anderes: die Eigenräume können prinzipiell eine Dim haben, die größer als 1 ist.
Es kommt für Diagonalisierbarkeit drauf an, daß es so insgesamt so viele linear unabhängige Eigenvektoren gibt, wie die Dimension des zugrundeliegenden Raumes.
> die ganzen Eigenräume [mm]Eig(F;\lamda_{1})[/mm] + ... +
> [mm]Eig(F;\lamda_{k})[/mm] bilden eine Basis von V?
Nein.
Aber wenn man die Basen dieser Räume zusammentut, hat man eine Basis von V - eine Basis aus Eigenvektoren.
> Heißt das nun das unsere Trafomatirx von vorhin (S^-1)
> auch eine Basis für V bilden würde?
Nee, die Matrix nicht.
Aber die drei linear unabhängigen vektoren von oben wären eine Basis.
>
>
> dann heißt es ja das die Determinante eines Endomorphismus
> F:V->V unabhängig von der Wahl der Basen gleich ist,also
> det( [mm]M(F)_A_A[/mm] ) = det( [mm]M(F)_A_B[/mm] )
Nein, so ist das nicht.
Die Det ist gleich, wenn Du die darstellenden Matrizen jeweils bzgl einer Basis betrachtest, es ist also det( [mm]M(F)_A_A[/mm] ) = det( [mm]M(F)_B_B[/mm] ).
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 04:56 Do 01.01.2009 | Autor: | farnold |
>wenn Du zu einer 3x3-Matrix 3 linear unabhängige >Eigenvektoren findest, kannst Du diese in eine Matrix $ [mm] >S(=_AT_E) [/mm] $ stellen. Diese Matrix macht aus >Koordinatenvektoren bzgl. der Basis E aus Eigenvektoren >Koordinatenvektoren bzgl der alten Basis A.
>
>Es ist dann $ [mm] S^{-1} M(f)_A [/mm] $ S= $ [mm] M(f)_E [/mm] $ eine >Diagonalmatrix.
d.h. wenn ich in einer 3x3 Matrix 3 Eigenvektoren finde muss ich diese noch auf ihre lineare Unabhängigkeit überprüfen?
>> die ganzen Eigenräume $ [mm] Eig(F;\lamda_{1}) [/mm] $ + ... +
>> $ [mm] Eig(F;\lamda_{k}) [/mm] $ bilden eine Basis von V?
>Nein.
>
>Aber wenn man die Basen dieser Räume zusammentut, hat man >eine Basis von V - eine Basis aus Eigenvektoren.
Aber ein Eigenraum ist doch ein Untervekotrraum. Sei Eig(F;4) = [mm] \mu [/mm] * (1,2,3) (irgend ein ausgedachter Eigenraum) dann ist [mm] \mu [/mm] * (1,2,3) ja eine Basis von Eig(F,4), ist es dann nicht egal ob ich [mm] Eig(F,\lambda_{1})... [/mm] eine Basis bilden schreibe oder die Basen der Eigenräume.
> > die ganzen Eigenräume $ [mm] Eig(F;\lamda_{1}) [/mm] $ + ... +
> > $ [mm] Eig(F;\lamda_{k}) [/mm] $ bilden eine Basis von V?
>Nein.
>Aber wenn man die Basen dieser Räume zusammentut, hat man >eine Basis von V - eine Basis aus Eigenvektoren.
das heißt also, dass ich die 3 l.u. Eigenvektoren nicht "einfach so" in die Matrix schreiben kann.
z.b. Eigenvektoren eines Endomorphismus [mm] F:IR^2 [/mm] -> [mm] IR^2: [/mm] (2,2)(2,0)
Matrix [mm] S^1- [/mm] = [mm] \pmat{ 2 & 2 \\ 2 & 0 } [/mm] wäre falsch?
|
|
|
|
|
> >wenn Du zu einer 3x3-Matrix 3 linear unabhängige
> >Eigenvektoren findest, kannst Du diese in eine Matrix
> [mm]>S(=_AT_E)[/mm] stellen. Diese Matrix macht aus
> >Koordinatenvektoren bzgl. der Basis E aus Eigenvektoren
> >Koordinatenvektoren bzgl der alten Basis A.
> >
> >Es ist dann [mm]S^{-1} M(f)_A[/mm] S= [mm]M(f)_E[/mm] eine
> >Diagonalmatrix.
>
> d.h. wenn ich in einer 3x3 Matrix 3 Eigenvektoren finde
> muss ich diese noch auf ihre lineare Unabhängigkeit
> überprüfen?
Hallo,
ich weiß doch nicht, was Du mit "Eigenvektoren finde" meinst.
Die Matrix [mm] \pmat{2&1&0\\0&2&1\\0&0&2} [/mm] hat - das sehe ich Durch Draufgucken - die Eigenvektoren [mm] \vektor{1\\0\\0}, \vektor{\wurzel{2}\\0\\0} [/mm] und [mm] \vektor{-\bruch{1}{2}\\0\\0}.
[/mm]
Die sind überhaupt nicht linear unabhängig.
Allerdings kann ich auch ausrechnen durch die Bestimmung von [mm] kern\pmat{0&1&0\\0&0&1\\0&0&0}, [/mm] daß der Eigenraum zum Eigenvektor 2 aufgespannt wird von [mm] \vektor{1\\0\\0}, [/mm] also [mm] Eig_2=<\vektor{1\\0\\0}>.
[/mm]
Vermutlich bezog sich dine Frag auf letzteres, und Du hast das nur nicht so formuliert.
Es ist doch so. die Eigenvektoren zu verschiedenen Eigenwertn sind "automatisch" linear unabhängig, und wenn Du dann die Basen der Eigenräume zusammenwirfst, hast du natürlich eine Basis des Raums der Summe der Eigenräume. Hat dieser genau die Dimension des Grundraumes ( hier also 3) sind die zusammengeschütteten Vektoren eine Basis des Grundraumes und die Matrix ist diagonalisierbar. In meinem Beispiel ist das nicht der Fall.
> Aber ein Eigenraum ist doch ein Untervekotrraum.
Ja. Und weil es ein UVR ist, hat er eine Basis, ist jedoch keine.
> Sei
> Eig(F;4) = [mm]\mu[/mm] * (1,2,3) (irgend ein ausgedachter
> Eigenraum) dann ist [mm]\mu[/mm] * (1,2,3) ja eine Basis von
> Eig(F,4), ist es dann nicht egal ob ich
> [mm]Eig(F,\lambda_{1})...[/mm] eine Basis bilden schreibe oder die
> Basen der Eigenräume.
Nein. In Deinem Eig(F;4) sind ganz viele Vektoren,nämlich sämtliche Vielfache von [mm] \vektor{1\\2\\3}, [/mm] die Basis hingegen besteht nur aus einem vektor, und das ist ein Riesenunterschied.
> >Aber wenn man die Basen dieser Räume zusammentut, hat man
> >eine Basis von V - eine Basis aus Eigenvektoren.
>
> das heißt also, dass ich die 3 l.u. Eigenvektoren nicht
> "einfach so" in die Matrix schreiben kann.
> z.b. Eigenvektoren eines Endomorphismus [mm]F:IR^2[/mm] -> [mm]IR^2:[/mm]
> (2,2)(2,0)
Ich weiß nicht, was Du mit diesem Endomorphismus meinst,
> Matrix [mm]S^1-[/mm] = [mm]\pmat{ 2 & 2 \\ 2 & 0 }[/mm] wäre falsch?
und ich kapiere nicht, was diese Matrix sein soll.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 07:46 Do 01.01.2009 | Autor: | farnold |
Ich versuche mal mein Verständnisproblem an einem Beispiel zu verdeutlichen:
Sei F: [mm] IR^3 [/mm] -> [mm] IR^3
[/mm]
K sei die kan. Basis und
[mm] A:=M_{K}(F) [/mm] = [mm] \pmat{ 0 & -1 & 1 \\ -3 & -2 & 3 \\ -2 & -2 & 3 }
[/mm]
[mm] P_{F} [/mm] = -(t-1)² (t+1) =>Es gibt 2 Eigenwerte: [mm] \lambda_{1} [/mm] = 1 und [mm] lambda_{2} [/mm] = -1
nun rechnen wir über [mm] det(A-E*\lambda) [/mm] = 0 die Eigenräume aus
=> Eig(F;1) = (1,0,1),(0,1,1) und all ihre vielfachen
und Eig(F;-1) = (1,3,2)
soweit ist ja noch alles klar
jetzt geht es darum die Matrix S^-1 von S*A*S^-1 = D(Diagonalmatrix) aufzustellen.
diese ist laut Lösung:
S^-1 = [mm] \pmat{ 1 & 0 & 1 \\ 0 & 1 & 3 \\ 1 & 1 & 2 }
[/mm]
Mein Problem/Frage ist nun ob ich für S^-1 zum Beispiel auch folgendes schrieben kann
S^-1 = [mm] \pmat{ 0 & 1& 1 \\ 1 & 0 & 3 \\ 1 & 1 & 2 } [/mm] also gerade den 1. (Eigenvektor) mit dem 2.vertauschen?
Kann ich für S^-1 auch andere Vielfache der Eigenvekoren nehmen oder müssen es genau diese sein?
Wenn ich nach diesem Prnzip die Eigenvektoren von diesem Endomorphismus zu einer Basis B (also irgendeine die nicht die kan. Basis ist) berechnen will, bekomme ich dann (1,0,1),(0,1,1),(1,3,2) heraus oder Vielfache von ihnen.
(Die Eigenwerte bleiben ja gleich)
|
|
|
|
|
> Ich versuche mal mein Verständnisproblem an einem Beispiel
> zu verdeutlichen:
>
> Sei F: [mm]IR^3[/mm] -> [mm]IR^3[/mm]
> K sei die kan. Basis und
> [mm]A:=M_{K}(F)[/mm] = [mm]\pmat{ 0 & -1 & 1 \\ -3 & -2 & 3 \\ -2 & -2 & 3 }[/mm]
>
> [mm]P_{F}[/mm] = -(t-1)² (t+1) =>Es gibt 2 Eigenwerte: [mm]\lambda_{1}[/mm] =
> 1 und [mm]lambda_{2}[/mm] = -1
> nun rechnen wir über [mm]det(A-E*\lambda)[/mm] = 0 die Eigenräume
> aus
> => Eig(F;1) = (1,0,1),(0,1,1) und all ihre vielfachen
> und Eig(F;-1) = (1,3,2)
>
> soweit ist ja noch alles klar
>
> jetzt geht es darum die Matrix S^-1 von S*A*S^-1 =
> D(Diagonalmatrix) aufzustellen.
>
> diese ist laut Lösung:
> S^-1 = [mm]\pmat{ 1 & 0 & 1 \\ 0 & 1 & 3 \\ 1 & 1 & 2 }[/mm]
>
> Mein Problem/Frage ist nun ob ich für S^-1 zum Beispiel
> auch folgendes schrieben kann
> S^-1 = [mm]\pmat{ 0 & 1& 1 \\ 1 & 0 & 3 \\ 1 & 1 & 2 }[/mm] also
> gerade den 1. (Eigenvektor) mit dem 2.vertauschen?
Hallo,
ja.
> Kann ich für S^-1 auch andere Vielfache der Eigenvekoren
> nehmen oder müssen es genau diese sein?
Die Basis eines Raumes ist ja i.a. nicht eindeutig, und so ist es auch mit den Basen der Eigenräume.
Klar können das auch Vielfache sein, oder eine Basis von Eig(F;1) = <(1,0,1),(0,1,1)> ist auch ( (1,1,2),(0,1,1) ).
Welche Basis aus Eigenvektoren man bei seinen rechnerischen Bemühungen herausbekommt, hängt ja auch von der Rechnung ab.
Sofern man keine Fehler macht, sind alle Basen aus Eigenvektoren gleichgut.
Wenn in den Lösungen oder bei Kommilitonen also mal eine andere Basis steht, muß das kein Hinweis auf Fehler sein.
Gruß v. Angela
> Wenn ich nach diesem Prnzip die Eigenvektoren von diesem
> Endomorphismus zu einer Basis B (also irgendeine die nicht
> die kan. Basis ist) berechnen will, bekomme ich dann
> (1,0,1),(0,1,1),(1,3,2) heraus oder Vielfache von ihnen.
> (Die Eigenwerte bleiben ja gleich)
|
|
|
|