Diagonalmatrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 15:19 Mo 14.04.2008 | Autor: | tobe |
Aufgabe | Bestimmen Sie eine orthogonale Matrix S, sodass [mm] S^{-1} \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm] S eine Diagonalmatrix ist.
|
Häääää? ich peil die Aufgabenstellung nicht so ganz, da kein Punkt und kein komma sowie kein mal und geteilt ist :D
Was soll ich machen?
Solle ich eine orthogonale Matrix finden, die ich S nenne, sodass gilt:
Inverse von S multipliziert mit der Matrix [mm] \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm] multipliziert mit S gleich eine Matrix der Form [mm] \pmat{a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c } [/mm] raus kommt?
Also [mm] S^{-1} [/mm] * [mm] \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm] * S = [mm] \pmat{a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c }
[/mm]
Ich muss praktisch eine Matrixtransformation auf Diagonalgestalt rückwärts ablaufen lassen?
Bin ich da auf dem richtigen Weg?
Lg Tobias
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:56 Mo 14.04.2008 | Autor: | tobe |
AHHH, habe es schon selber kapiert. Ich werde es mal lösen und dann die Lösung schreiben. mal schaun ob ich richtig bin ;D
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:22 Mo 14.04.2008 | Autor: | tobe |
Ok, jetzt bin ich wieder auf ein altes Problem gestoßen. Ich bin einfach zu doof um die Eigenwerte einer Matrix auszurechnen.
Ich habe angefangen:
[mm] A=\pmat{ 7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 }
[/mm]
[mm] S^{-1}AS=\pmat{ \lambda_{1} & 0 & 0 \\ 0 & \lambda_{2} & 0 \\ 0 & 0 & \lambda_{3}}
[/mm]
Eigenwerte berechnen: [mm] \vmat{ 7-\lambda & -2 & 1 \\ -2 & 10-\lambda & -2 \\ 1 & -2 & 7-\lambda } [/mm] = 0
-> [mm] (7-\lambda) (10-\lambda) (7-\lambda) [/mm] +4 +4 - [mm] (10-\lambda) [/mm] - [mm] 4(7-\lambda) -4(7-\lambda) [/mm] = 0
Wenn ich das jetzt ausrechne komme ich auf:
[mm] -\lambda^{3}+24\lambda^{2}-180\lambda+432=0
[/mm]
Und diese Gleichung kann ich nie Lösen. Es gibt doch bestimmt vorher schon einen Trick um [mm] \lambda [/mm] leichter zu bestimmen.
Wenn ich die Eigenwerte habe, würde ich auch weiter kommen :D
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:44 Mo 14.04.2008 | Autor: | Marcel |
Hallo,
> [mm]-\lambda^{3}+24\lambda^{2}-180\lambda+432=0[/mm]
wenn man da keine Idee hat:
Der Plot des Graphen von $f(x):= [mm] -x^3+24*x^2-180x+432$
[/mm]
[Dateianhang nicht öffentlich]
Juchhu, ich glaube jedenfalls, zu sehen, dass [mm] $x_0=6$ [/mm] eine Nullstelle meiner Funktion oben ist. Zwischen "glauben zu sehen" und wissen ist noch ein Unterschied, also berechnen wir mal $f(6)$:
[mm] $f(6)=-6^3+24*6^2-180*6+432=-6^3+4*6^3-5*6^3+2*6^3=6^3*(-1+4-5+2)=6^3*0=0$
[/mm]
Was bringt uns das? Wir wissen schonmal, dass [mm] $\lambda=6$ [/mm] ein Eigenwert ist, da mit [mm] $\lambda=6$ [/mm] dann gilt:
[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=0$
[/mm]
Wie kriegen wir die anderen Eigenwerte?
Polynomdivision:
[mm] $(-\lambda^{3}+24\lambda^{2}-180\lambda+432):(\lambda-6)$ [/mm] machen, dann folgt nämlich:
[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=(\lambda-6)*P_2(\lambda)$
[/mm]
wobei Du bei der Polynomdivison dann herausbekommen haben solltest, dass
[mm] $P_2(\lambda)=a\lambda^2+b\lambda+c$ [/mm] mit Konstanten $a,b,c$
Daher:
[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=0$
[/mm]
[mm] $\gdw$ $(\lambda-6)*P_2(\lambda)=0$
[/mm]
[mm] $\gdw$ $\lambda=6$ [/mm] oder [mm] $P_2(\lambda)=0$
[/mm]
[mm] $\gdw$ [/mm] ...
Du brauchst also noch die Nullstellen von [mm] $P_2(\lambda)$, [/mm] aber nach der Polynomdivision hast Du ja [mm] $P_2(\lambda)=a\lambda^2+b\lambda+c$ [/mm] mit konkreten Werten für $a,b,c$ da stehen, also Mitternachtsformel oder p-q-Formel anwenden...
P.S.:
Beachte, dass ein Eigenwert auch ein mehrfacher Eigenwert sein kann!
Gruß,
Marcel
Dateianhänge: Anhang Nr. 1 (Typ: jpg) [nicht öffentlich]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:57 Mo 14.04.2008 | Autor: | tobe |
Ok, ich habe als eigenwerte 6, 6, 12
-> [mm] \lambda=6
[/mm]
[mm] x_{1}-2x_{2}+x_{3}=0
[/mm]
[mm] -2x_{1}+4x_{2}-2x_{3}=0
[/mm]
[mm] x_{1} -2x_{2} [/mm] + [mm] x_{3} [/mm] =0
-> Eigenvektor1= [mm] \vektor{-1 \\ 0 \\ 1 }
[/mm]
Eigenvektor2= [mm] \vektor{-1 \\ 0 \\ 1 }
[/mm]
[mm] \lambda=12
[/mm]
-> ...
...
... musste irgend wann mal ein x selbst auswählen ....
Eigenvektor3= [mm] \vektor{6 \\ 1 \\ \bruch{1}{2}}
[/mm]
--> Orthogonale Matrix S ist [mm] \pmat{ -1 & 0 & 1 \\ -1 & 0 & 1 \\ 6 & 1 & \bruch{1}{2} }
[/mm]
Wenn ich das jetzt kontrollieren möchte, könnte ich ja einfach [mm] s^{-1} [/mm] * A * S rechnen und es müsste eine Diagonalmatrix raus kommen. Wie multipliziere ich solche matrizen? bei matrizen ist die reihenfolge ja immer so wichtig. Kann ich jetzt einfach [mm] S^{-1} [/mm] * A rechnen und dann das ergebnis noch * S ?
Lg
|
|
|
|
|
> Ok, ich habe als eigenwerte 6, 6, 12
>
> -> [mm]\lambda=6[/mm]
> [mm]x_{1}-2x_{2}+x_{3}=0[/mm]
>
> [mm]-2x_{1}+4x_{2}-2x_{3}=0[/mm]
>
> [mm]x_{1} -2x_{2}[/mm] + [mm]x_{3}[/mm] =0
>
> -> Eigenvektor1= [mm]\vektor{-1 \\ 0 \\ 1 }[/mm]
>
> Eigenvektor2= [mm]\vektor{-1 \\ 0 \\ 1 }[/mm]
Hallo,
ist Dir aufgefallen, daß Du heir zwei gleiche Eigenvektoren hingeschrieben hast?
Eine kleine Meditation über das GS und seinen Rang wäre nicht schlecht.
Denk' noch mal 'nen bißchen und melde Dich dann wieder.
>
> [mm]\lambda=12[/mm]
> -> ...
> ...
> ... musste irgend wann mal ein x selbst auswählen ....
> Eigenvektor3= [mm]\vektor{6 \\ 1 \\ \bruch{1}{2}}[/mm]
>
>
> --> Orthogonale Matrix S ist [mm]\pmat{ -1 & 0 & 1 \\ -1 & 0 & 1 \\ 6 & 1 & \bruch{1}{2} }[/mm]
Diese Matrix hier ist nicht orthogonal. Du kannst sie noch nicht einmal invertieren.
Und die Eigenvektoren müssen als Spalten in die Matrix.
>
>
> Wenn ich das jetzt kontrollieren möchte, könnte ich ja
> einfach [mm]s^{-1}[/mm] * A * S rechnen und es müsste eine
> Diagonalmatrix raus kommen. Wie multipliziere ich solche
> matrizen? bei matrizen ist die reihenfolge ja immer so
> wichtig. Kann ich jetzt einfach [mm]S^{-1}[/mm] * A rechnen und dann
> das ergebnis noch * S ?
ja, das kannst Du tun. Solange Du die reihenfolge der matrizen nicht veränderst, kannst Du beliebig Klammern setzen, denn die Matrizenmultiplikation ist assoziativ.
Du darfst bloß nicht nach Lust und Laune statt ABC BAC rechnen.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:21 Mo 14.04.2008 | Autor: | tobe |
Ahhhh, die Aufgabe zerstört mich komplett :D
[mm] \lambda=6
[/mm]
A= [mm] \pmat{ 1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1}
[/mm]
Rang A = 1 !!!! :(((
Rang(A,a)= Rang [mm] \pmat{ 1 & -2 & 1 & 0 \\ -2 & 4 & -2 & 0 \\ 1 & -2 & 1 & 0} [/mm] = 2
Rang A [mm] \not= [/mm] Rang A,a -> Gleichungssystem nicht lösbar. richtig?
Und was mache ich jetzt?
Ahhhhhh, die Aufgabe zerstört mich :D
|
|
|
|
|
> Ahhhh, die Aufgabe zerstört mich komplett :D
So'n Quark!
Die Aufgabe macht überhaupt nichts.
Atme jetzt erstmal ganz tief durch.
Wenn ich diesen Thread richtig deute (gerechnet habe ich nichts), interessierst Du Dich zunächst für Eigenwerte und Eigenvektoren der Matrix
[mm] A:=\pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 }.
[/mm]
Du hast die Nullstellen des Charakteristischen Polynoms gefunden, nämlich die doppelte Nullstelle 6 und die einfache 12.
Nun möchtest Du den Eigenraum zum Eigenwert 6 berechnen.
Hierzu ist der Kern von [mm] \pmat{7-6 & -2 & 1 \\ -2 & 10-6 & -2 \\ 1 & -2 & 7-6 }=\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 } [/mm] zu berechnen
und nicht von
> A= [mm]\pmat{ 1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1}[/mm]
> Rang A
> = 1 !!!! :(((
Der Rang obiger Matrix ist 2. Also hat der Eigenraum die Dimension 2 und Du wirst zwei linear unabhängige Eigenvektoren finden.
Finde sie!
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:43 Mo 14.04.2008 | Autor: | tobe |
Der Rang ist doch die maximale Zahl eines Systems von linear unabhängigen Spaltenvektoren und der Rang ändert sich nicht bei Multiplikation einer Zeile oder Spalte mit einem Faktor [mm] \not= [/mm] 0
-> 1. und 3. Spalte mal -2 -> [mm] \pmat{ -2 & 4 & -2 \\ -2 & 4 & -2 \\ -2 & 4 & -2}
[/mm]
Das sind ja jetzt 3 mal die gleichen spaltenvektoren oder nicht? also habe ich ja nur 1 linear unabhängigen vektor und daraus folgt doch dass das gin den Rang 1 hat oder?
Ich glaube ich sollte mal eine kleine Pause machen :D
Danke Leute
|
|
|
|
|
Hallo Tobias,
> Der Rang ist doch die maximale Zahl eines Systems von
> linear unabhängigen Spaltenvektoren und der Rang ändert
> sich nicht bei Multiplikation einer Zeile oder Spalte mit
> einem Faktor [mm]\not=[/mm] 0
>
> -> 1. und 3. Spalte mal -2
Mit welchem Ziel machst du das?
-> [mm]\pmat{ -2 & 4 & -2 \\ -2 & 4 & -2 \\ -2 & 4 & -2}[/mm]
>
> Das sind ja jetzt 3 mal die gleichen spaltenvektoren oder
> nicht? also habe ich ja nur 1 linear unabhängigen vektor
> und daraus folgt doch dass das gin den Rang 1 hat oder?
>
> Ich glaube ich sollte mal eine kleine Pause machen :D
Das solltest du in der Tat Und trinke einen großen !!
>
> Danke Leute
Du musst doch den Kern der Matrix [mm] $\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 } [/mm] $ (von Angela übernommen) bestimmen
Also bringe das Biest in Zeilenstufenform, bestimme also den Rang.
Kurzes Hinsehen lässt mich dies versuchen:
Addiere das 2fache der 1.Zeile zur 2.Zeile und dann das -1fache der 1.Zeile zur 3.Zeile
das gibt 2 Nullzeilen: [mm] $\pmat{1 & -2 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 } [/mm] $
Also [mm] $Rang(A-6\mathbb{E}_3)=1$
[/mm]
Damit hast du 3-1=2 frei wählbare Parameter
Wieder übersetzt in ein Gleichungssystem steht in der 1. Zeile
$x-2y+z=0$
Du hast 2 freie Parameter, etwa $z=t, y=s$ mit [mm] $s,t\in\IR$
[/mm]
Daraus bastel mal die allg. Lösung und schreibe sie sauber auf.
Damit bekommst du dann deine 2 Eigenvektoren zum Eigenwert [mm] $\lambda=6$
[/mm]
LG
schachuzipus
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:38 Mo 14.04.2008 | Autor: | tobe |
Sodala, 14 Fischstäbchen und eine Tasse Kaffe später gehe ich es nun noch einmal an.
Es kann sein dass ich bereits grundlegende Fehler in der Rangbestimmung habe.
Der Rang einer Matrix ist doch nix anderes als die maximale Zahl eines Systems von Linear unabhängigen Spaltenvektoren.
nun habe ich folgende Matrix:
[mm] \pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 }
[/mm]
Wenn ich nun die erste und die dritte Spalte mal -2 nehme kommt doch folgendes heraus:
[mm] \pmat{-2 & -2 & -2 \\ 4 & 4 & 4 \\ -2 & -2 & -2 }
[/mm]
Die 3 Spaltenvektoren [mm] \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} [/mm] sind doch linear abhängig voneinander, weil sie vielfache voneinander sind bzw. komplett identisch. -> ich habe hier doch nur 1 linear unabhängigen Vektor -> Rang dieser Matrix ist 1
Ist dies bereits falsch? Muss ich die Rangbestimmung über die Zeilenstufenform machen?
---------------------------------------------------------------------
Ich habe z.B. vorher aufgaben wie folgt gerechnet:
"Bestimmen sie für das folgende Gleichungssystem jeweils den Rang der Matrix und den Rang der erweiterten Matrix:
3x-6y-12z=9
-4x +8y+16z=-12
Die Matrix hier lautet A= [mm] \pmat{ 3 & -6 & -12 \\ -4 & 8 & 16 }
[/mm]
Spalte 1 * (-4) und Spalte 2 * 2 ergibt ja [mm] \pmat{ -12 & -12 & -12 \\ 16 & 16 & 16 }
[/mm]
Sprich ich habe hier ja nur einen linear unabhängigen Vektor und deswegen ist der Rang der Matrix 1.
Die erweiterte Matrix ist doch [mm] \pmat{ 3 & -6 & -12 & 9 \\ -4 & 8 & 16 & -12 }
[/mm]
Wieder Spalte 1 * (-4) , Spalte 2 * 2 und Spalte 4 * [mm] (-\bruch{4}{3}
[/mm]
ergibt ja:
[mm] \pmat{ -12 & -12 & -12 & -12 \\ 16 & 16 & 16 & 16}
[/mm]
d.h. wieder nur 1 linear abhängigen Vektor -> auch Rang1
Da nun der Rand der Matrix = Rang der erweiterten Matrix ist kann ich sagen dass das System Lösbar ist und die Lösungsebenen die 1. Dimension.
Ist dies bereits falsch?
---------------------------------------------------------------------
Nun wieder zurück zu unserer eigentlichen Aufgabe.
Es bleibt nach dem Gauß eliminationsverfahren wenn ich mich nicht täusche x-2y+z=0
Nun kann ich 2 Werte selber bestimmen z.B. z=t und y=s t,s [mm] \varepsilon \IR
[/mm]
-> x=2s-t
=> allgemeine Lösung ist [mm] \vektor{2s-t \\ s \\ t}
[/mm]
|
|
|
|
|
> Der Rang einer Matrix ist doch nix anderes als die maximale
> Zahl eines Systems von Linear unabhängigen
> Spaltenvektoren.
Hallo,
das ist richtig.
>
> nun habe ich folgende Matrix:
>
> [mm]\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 }[/mm]
>
> Wenn ich nun die erste und die dritte Spalte mal -2 nehme
> kommt doch folgendes heraus:
>
> [mm]\pmat{-2 & -2 & -2 \\ 4 & 4 & 4 \\ -2 & -2 & -2 }[/mm]
>
> Die 3 Spaltenvektoren [mm]\vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2}[/mm]
> sind doch linear abhängig voneinander, weil sie vielfache
> voneinander sind bzw. komplett identisch. -> ich habe hier
> doch nur 1 linear unabhängigen Vektor -> Rang dieser Matrix
> ist 1
>
> Ist dies bereits falsch? Muss ich die Rangbestimmung über
> die Zeilenstufenform machen?
Das, was Du gemacht hast, ist schon richtig.
Ich würde Dir jedoch eindringlich raten, solche Rangbestimmungen immer über die zeilenstufenform zu machen, denn letztendlich ersparst Du Dir dadurch meist Arbeit, denn die ZSF kann man dann gleich für die Bestimmung der Lösung des GSs weiterverwenden.
Mach Dich damit unbedingt vertraut.
>
> Nun wieder zurück zu unserer eigentlichen Aufgabe.
>
> Es bleibt nach dem Gauß eliminationsverfahren wenn ich mich
> nicht täusche x-2y+z=0
Ja. Hättest Du die Matrix auf ZSF gebracht, hättest Du
[mm] \pmat{1 & -2 & 1 \\ 0 & 0& 0 \\ 0 & 0 & 0 } [/mm] erhalten, was genau obigem Gleichungs"system" entspricht.
> Nun kann ich 2 Werte selber bestimmen z.B. z=t und y=s
> t,s [mm]\varepsilon \IR[/mm]
> -> x=2s-t
> => allgemeine Lösung ist [mm]\vektor{2s-t \\ s \\ t}[/mm]
[mm] =s*\vektor{2 \\ 1 \\ 0}+t*\vektor{-1 \\ 0 \\ 1}.
[/mm]
Die beiden Vektoren [mm] \vektor{2 \\ 1 \\ 0}, \vektor{-1 \\ 0 \\ 1} [/mm] bilden eine Basis des Eigenraumes Deiner Ausgangsmatrix zum Eigenwert 6.
Zusammen mit dem Eigenvektor zum Eigenwert 12 (ich habe nichts nachgerechnet) hast Du nun eine Basis des [mm] \IR^3 [/mm] aus Eigenvektoren gefunden.
Achtung, den anderen Eigenvektor solltest Du nochmal überprüfen. Er scheint mir verkehrt zu sein.
Weißt Du, woran ich das sehe? Ein Hinweis: Deine Ausgangsmatrix ist symmetrisch... Blätter mal im Skript o.ä.
Mal angenommen, Du hast auch den dritten richtigen Eigenvektor gefunden.
Dann bist Du jetzt so weit, daß Deine Matrix bzgl Deiner Basis aus Eigenvektoren eine Diagonalmatrix ist.
Du hast aber noch nicht erreicht, daß Du eine Orthonormalbasis aus Eigenvektoren hast. Dazu mußt Du [mm] \vektor{2 \\ 1 \\ 0}, \vektor{-1 \\ 0 \\ 1} [/mm] noch orthonormieren.
Den Eigenvektor zum anderen Eigenwert mußt Du normieren, und dann hast Du alles, was Du brauchst.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:24 Mo 14.04.2008 | Autor: | tobe |
yeah, fett! :D
jetzt ist doch ein bisschen Licht ins Dunkle leere nichts gekommen :D
Noch einmal zusammenfassen:
Ich kann den Rang der Matrix über wie Anzahl der linear unabhängigen Vektoren bestimmen. Daraus kann man sehen ob das System Lösbar ist oder nicht. Man kann auch die Dimension der Lösung angeben.
Aber man kann nicht das System Lösen.
Wenn ich die Rangbestimmung gleich über die Zeilenstufenbestimmung mache, kann ich neben der Rangbestimmung auch gleich noch das System Lösen.
Nun noch der Eigenvektor für [mm] \lambda=12 [/mm] : sprich
[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}
[/mm]
Spalte1 - Spalte 2 gibt [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 3 & -2 & -5}
[/mm]
Zeile3 + Zeile 1 gibt [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & -4 & 6}
[/mm]
zeile3 - 2* Zeile 2 gibt [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & 0 & 10}
[/mm]
daraus bekomme ich
[mm] -3x_{1}-2x_{2}+x_{3}=0
[/mm]
[mm] -2x_{2}-2x_{3}=0
[/mm]
[mm] 10x_{3}=0
[/mm]
ergibt [mm] x_{3}=x_{2}=x_{1}=0
[/mm]
-> [mm] \vektor{0 \\ 0 \\ 0}
[/mm]
Sodala, diese 3 ergeben eine Basis. Sodass diese eine Orthonormalbasis wird muss ich sie noch orthonormalisieren, z.B. mit dem "Orthogonalisierungsverfahren von Schmidt"
Das mache ich hier nicht mehr.
Wenn ich dann die 3 orthonormalisierten Vektoren ein eine matrix schreibe, ist dies meine Matrix S welche gesucht war sodass [mm] S^{-1} [/mm] * A * S = Diagonalmatrix ergibt.
Bitte sagt mir dass ich recht habe :D
P.s. bin jetzt schon 6 Stunden dran :D
Lg Tobi
|
|
|
|
|
> Wenn ich die Rangbestimmung gleich über die
> Zeilenstufenbestimmung mache, kann ich neben der
> Rangbestimmung auch gleich noch das System Lösen.
Ja.
Ich würde mich von diesen Spaltenumformungen verabschieden und zusehen, daß die Zeilenumformungen in Fleich und Blut übergehen.
>
> Nun noch der Eigenvektor für [mm]\lambda=12[/mm] : sprich
>
> [mm]\pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm]
>
> Spalte1 - Spalte 2 gibt [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 3 & -2 & -5}[/mm]
>
> Zeile3 + Zeile 1 gibt [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & -4 & 6}[/mm]
>
> zeile3 - 2* Zeile 2 gibt [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & 0 & 10}[/mm]
>
> daraus bekomme ich
> [mm]-3x_{1}-2x_{2}+x_{3}=0[/mm]
> [mm]-2x_{2}-2x_{3}=0[/mm]
> [mm]10x_{3}=0[/mm]
>
> ergibt [mm]x_{3}=x_{2}=x_{1}=0[/mm]
> -> [mm]\vektor{0 \\ 0 \\ 0}[/mm]
>
> Sodala, diese 3 ergeben eine Basis.
Das sieht schlecht aus...
Erstens mal ist der Nullvektor per definitionem kein Eigenvektor, und zweitens macht sich der Nullvektor als Basisvektor ausgesprochen schlecht.
Wenn Du herausbekommst, daß der Nullvektor ein Eigenvektor ist, ist etwas schiefgegangen. Dann muß man sich auf Fehlersuche begeben.
Du hast oben Zeilen- und Spaltenumformungen gemischt.
Der Gaußalgorithmus läuft ausschließlich mit Zeilenumformungen. Once more, please.
[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm] [/mm] --> ...
> Sodass diese eine
> Orthonormalbasis wird muss ich sie noch orthonormalisieren,
> z.B. mit dem "Orthogonalisierungsverfahren von Schmidt"
Genau.
Orthonormieren mußt Du nur die Vektoren, die zum selben Eigenwert gehören.
Denn Du hast eine symmetrische Matrix vorliegen. Symmetrische Matrizen haben die Eigenschaft, daß die Eigenvektoren zu verschiedenen (!) Eigenwerten vollautomatisch orthogonal sind.
Der Eigenvektor zu 12 muß also nur normiert werden und nicht mit Gram-Schmidt traktiert.
> Wenn ich dann die 3 orthonormalisierten Vektoren ein eine
> matrix schreibe, ist dies meine Matrix S welche gesucht war
> sodass [mm]S^{-1}[/mm] * A * S = Diagonalmatrix ergibt.
>
> Bitte sagt mir dass ich recht habe :D
Bzgl. dieses Absatzes: ja.
>
> P.s. bin jetzt schon 6 Stunden dran :D
Tja, so ist das Leben...
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:31 Mo 14.04.2008 | Autor: | tobe |
Ok, here we go ladies :D
*brief an Gehirn* gaußalgo nur mit zeilenumformen!!!
[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}
[/mm]
Zeile2 - [mm] \bruch{2}{5} [/mm] Zeile 1 und Zeile3 + [mm] \bruch{1}{5} [/mm] Zeile 1 ergibt:
[mm] \pmat{ -5 & -2 & 1 \\ 0 & -\bruch{6}{5} & -\bruch{12}{5} \\ 0 & -\bruch{12}{5} & -\bruch{24}{5}}
[/mm]
Zeile3 - 2 * Zeile2 ergibt
[mm] \pmat{ -5 & -2 & 1 \\ 0 & \bruch{6}{5} & -\bruch{12}{5} \\ 0 & 0 & 0}
[/mm]
Daraus folgt ich kann [mm] x_{3} [/mm] frei wählen: [mm] x_{3} [/mm] = p -> [mm] x_{2}=2p [/mm]
[mm] x_{1}= \bruch{3}{5} [/mm] p
3. Vektor ist [mm] p\vektor{\bruch{3}{5} \\ 2 \\ 1}
[/mm]
Sind das jetzt meine 3 Vektoren? Ich hoffe doch! Dann kann ich endlich ins Bett :D. Hoffentlich hab ich mich ned verrechnet oder irgend nen Fehler gemacht :p
Danke
|
|
|
|
|
Hallo nochmal, Tobias,
das ist fast ganz richtig, du hast nur an einer Stelle ein Minuszeichen verschlabbert:
> Ok, here we go ladies :D
>
> *brief an Gehirn* gaußalgo nur mit zeilenumformen!!!
> [mm]\pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm]
>
> Zeile2 - [mm]\bruch{2}{5}[/mm] Zeile 1 und Zeile3 + [mm]\bruch{1}{5}[/mm]
> Zeile 1 ergibt:
>
> [mm]\pmat{ -5 & -2 & 1 \\ 0 & -\bruch{6}{5} & -\bruch{12}{5} \\ 0 & -\bruch{12}{5} & -\bruch{24}{5}}[/mm]
>
> Zeile3 - 2 * Zeile2 ergibt
>
> [mm]\pmat{ -5 & -2 & 1 \\ 0 & \red{-}\bruch{6}{5} & -\bruch{12}{5} \\ 0 & 0 & 0}[/mm]
Hier haste das [mm] \red{-} [/mm] verschustert.
Zur Vereinfachung der weiteren Rechnung empfehle ich, die 2.Zeile vor dem setzen von [mm] $x_3:=p$ [/mm] erst einmal mit [mm] $-\frac{5}{6}$ [/mm] zu multiplizieren, dann kannst du die weitere (richtige) Lösung fast direktameng ablesen
>
> Daraus folgt ich kann [mm]x_{3}[/mm] frei wählen: [mm]x_{3}[/mm] = p ->
> [mm]x_{2}=2p[/mm]
> [mm]x_{1}= \bruch{3}{5}[/mm] p
>
> 3. Vektor ist [mm]p\vektor{\bruch{3}{5} \\ 2 \\ 1}[/mm]
>
> Sind das jetzt meine 3 Vektoren?
Fast, korrigiere mal das eine Vorzeichen und flicke die Lösung kurz bei!
Ich hoffe doch! Dann kann
> ich endlich ins Bett :D. Hoffentlich hab ich mich ned
> verrechnet oder irgend nen Fehler gemacht :p
>
> Danke
>
Gruß
schachuzipus
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:52 Mo 14.04.2008 | Autor: | tobe |
Dann ist es [mm] p\vektor{ 1 \\ 2 \\ 1} [/mm] .
Wenn es jetzt ned stimmt bin ich zu übermüdet um es zu rechnen1
Danke an schachuzipus und an Angela die mich den ganzen Tag begleitet haben :D
Bekomme ich jetzt wenigstens nen Award für "ersteller des längsten Thread? :D
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:24 Di 15.04.2008 | Autor: | tobe |
Aufgabe | Bestimmen Sie eine orthogonale Matrix S, sodass [mm] S^{-1}\pmat{ 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 } [/mm] S eine Diagonalmatrix ist. |
Ich habe hier mal eine weitere Aufgabe des selben Typs gerechnet und wäre froh wenn sie jemand Korrektur lesen könnte. Bald ist Test und ich muss das können :P .
Danke schon einmal vorab
[mm] A=\pmat{ 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 }
[/mm]
Eigenwerte: [mm] \pmat{ -\lambda & 1 & 0 \\ 1 & -\lambda & 0 \\ 0 & 0 & 1-\lambda }=0
[/mm]
[mm] \lambda^{2}(1-\lambda)-(1-\lambda)=(1-\lambda)(\lambda^{2}-1)=0
[/mm]
->
[mm] \lambda_{1}=1 [/mm] (doppelt)
[mm] \lambda_{2}=-1
[/mm]
Eigenvektoren:
[mm] \lambda=1
[/mm]
[mm] \pmat{ -1 & 1 & 0 \\ 1 & -1 & 0 \\ 0 & 0 & 0 }
[/mm]
Zeile2 + Zeile1 ergibt [mm] \pmat{ -1 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 }
[/mm]
[mm] -x_{1}+x_{2}=0
[/mm]
0=0
0=0
-> [mm] x_{2} [/mm] und [mm] x_{3} [/mm] frei wählbar; [mm] x_{2}=t [/mm] , [mm] x_{3}=u [/mm] , [mm] ->x_{1}=t
[/mm]
Hier bekomme ich 2 Vektoren: [mm] u\vektor{0 \\ 0 \\ 1} [/mm] und [mm] t\vektor{1 \\ 1 \\ 0}
[/mm]
[mm] \lambda=-1
[/mm]
[mm] \pmat{ 1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 2 }
[/mm]
Zeile2-Zeile1 ergibt [mm] \pmat{ 1 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 2 }
[/mm]
[mm] x_{1}+x_{2}=0
[/mm]
0=0
[mm] 2x_{3}=0
[/mm]
[mm] x_{2} [/mm] ist frei wählbar -> [mm] x_{2}=-s [/mm] ; [mm] x_{1}=s x_{3}=0
[/mm]
Hier erhalte ich den Vektor [mm] s\vektor{1 \\ -1 \\ 0}
[/mm]
Die 3 Vektoren [mm] s\vektor{1 \\ -1 \\ 0}, u\vektor{0 \\ 0 \\ 1} [/mm] und [mm] t\vektor{1 \\ 1 \\ 0}Spannen [/mm] nun meine gesuchte Matrix auf.
Ich muss nur noch schauen ob die Matrix orthogonal ist. Wenn ja, passt es, wenn nein, muss ich sie noch orthogonal machen.
S= [mm] \pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 }
[/mm]
Wenn sie orthogonal ist, muss S * [mm] S^{T}=I [/mm] sein!
[mm] \pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 } [/mm] * [mm] \pmat{ 0 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 0 } [/mm] = S= [mm] \pmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 } \not= [/mm] I
Ich muss sie also noch orthogonalisieren. Eignet sich das Gram-Schmidtsches Orthogonalisierungsverfahren? oder wäre das mit Kanonen auf Spatzen geschossen?
Danke fürs Korrekturlesen
|
|
|
|
|
Hallo tobe,
>
> Die 3 Vektoren [mm]s\vektor{1 \\ -1 \\ 0}, u\vektor{0 \\ 0 \\ 1}[/mm]
> und [mm]t\vektor{1 \\ 1 \\ 0}Spannen[/mm] nun meine gesuchte Matrix
> auf.
>
> Ich muss nur noch schauen ob die Matrix orthogonal ist.
> Wenn ja, passt es, wenn nein, muss ich sie noch orthogonal
> machen.
>
> S= [mm]\pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 }[/mm]
>
> Wenn sie orthogonal ist, muss S * [mm]S^{T}=I[/mm] sein!
>
> [mm]\pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 }[/mm] * [mm]\pmat{ 0 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 0 }[/mm]
> = S= [mm]\pmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 } \not=[/mm] I
>
> Ich muss sie also noch orthogonalisieren. Eignet sich das
> Gram-Schmidtsches Orthogonalisierungsverfahren? oder wäre
> das mit Kanonen auf Spatzen geschossen?
Jo, das ist mit Kanonen auf Spatzen geschossen.
Die Vektoren von sich aus sind ja schon orthogonal.
Die Vektoren sind aber nicht alle vom Betrag 1, deshalb normiere die Vektoren so, daß sie den Betrag 1 haben.
>
> Danke fürs Korrekturlesen
Gruß
MathePower
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:59 Di 15.04.2008 | Autor: | tobe |
Danke fürs Lesen.
habe die Vektoren normiert. [mm] \vektor{0 \\ 0 \\ 1} \vektor{\bruch{1}{\wurzel{2}} \\ \bruch{1}{\wurzel{2}} \\ 0} [/mm] und [mm] \vektor{\bruch{1}{\wurzel{2}} \\ -\bruch{1}{\wurzel{2}} \\ 0}
[/mm]
Jetzt kommt auch die Einheitsmatrix raus.
Jetzt habe ich hier noch ein paar formale Fragen, welche sich beim studieren des Skripts und von Aufgaben ergeben.
1. Lineare Gleichungssysteme: ich solle manchmal welche mit dem Gaußschen Verfahren lösen, andere soll ich mit dem Eliminationsverfahren lösen. Hier war einmal die Rede vom Gauß algorithmus.
Ist das Gaußsche Verfahren = Eliminationsverfahren = Gauß algorithmus
Ich dachte schon oder?
2. In meinem Skriptum wird beim Gaußsches Eliminationsverfahren folgendes angegeben: "Die Gesamtheit der Lösungen ändert sich nicht bei Vertauschung von 2 Gleichungen (Zeilentausch) oder Vertauschung der Terme [mm] x_{k} [/mm] mit den Termen [mm] x_{l} [/mm] (Spaltentausch)
Weiter oben im Artikel habe ich jedoch ein System auf Stufenform gebracht indem ich Spalten- und Zeilentausch gemacht habe. Angela meinte, ich dürfte aber nur Zeilentausch verwenden.
|
|
|
|
|
> Ist das Gaußsche Verfahren = Eliminationsverfahren = Gauß
> algorithmus
Hallo,
da ist dasselbe mit gemeint.
>
> 2. In meinem Skriptum wird beim Gaußsches
> Eliminationsverfahren folgendes angegeben: "Die Gesamtheit
> der Lösungen ändert sich nicht bei Vertauschung von 2
> Gleichungen (Zeilentausch) oder Vertauschung der Terme
> [mm]x_{k}[/mm] mit den Termen [mm]x_{l}[/mm] (Spaltentausch)
>
> Weiter oben im Artikel habe ich jedoch ein System auf
> Stufenform gebracht indem ich Spalten- und Zeilentausch
> gemacht habe. Angela meinte, ich dürfte aber nur
> Zeilentausch verwenden.
Angela, die Gute, wollte Dich vor Dir selber retten: wenn Du Spalten vertauschst, mußt Du die Variablen umbenennen.
Guck mal:
x+y+z=1
x+2z=5
y=2
Im Matrixschema wäre das
[mm] \pmat{ 1 & 1 &1& |1\\ 1 & 2 &0& |5\\0 & 1 &0& |2}.
[/mm]
Nun könnte man tatsächlich auf die Idee kommen, die letzte und erste Zeile zu tauschen:
--> [mm] \pmat{ 1 & 1 &1& |1\\ 0 & 2 &1& |5\\0 & 1 &0& |2}
[/mm]
Nun noch die vorletzt mit der letzten:
--> [mm] \pmat{ 1 & 1 &1& |1\\ 0 & 1 &2& |5\\0 & 0 &1& |2}.
[/mm]
Wenn man nun allerdings meint, daß
z=2
y=1
x=-2
die Lösung von
x+y+z=1
x+2z=5
y=2
ist, hat man sich gewaltig getäuscht.
Die Lösung: wenn Du Spalten vertauschst, mußt Du jedesmal die Variablen umbenennen.
Tu's nicht!
Gruß v. Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 11:27 Di 15.04.2008 | Autor: | tobe |
Danke an alle für die Unterstützung. Ihr seit Super! Wir werden uns bestimmt bald wieder sprechen, wenn ich bei Augleichsrechnungen und hauptachsentransformation bin :D
Aber erst mal schauen ob ich einem anderen user helfen kann !
|
|
|
|