www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - Mathe Zwischenprüfung
Mathe Zwischenprüfung < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Mathe Zwischenprüfung: Verschiedene Fragen
Status: (Frage) beantwortet Status 
Datum: 10:13 Di 11.03.2008
Autor: Leni-H

Aufgabe
Hallo!

Ich lerne gerade auf die Mathe-Zwischenprüfung und habe ein paar Fragen, die ich selbst nicht so ganz beantworten kann. Wär super, wenn ihr mir helfen könntet:

1.) Warum muss bei Determinante = 1 ein Eigenvektor = 1 sein?

Hierzu habe ich selbst leider überhaupt keine Idee :-(

2.) Was bedeuten die Eigenwerte für die Determinante einer Matrix?

Was kann man hierzu alles sagen? Die Determinante ist das Produkt der Eigenwerte, stimmt das?? Und was kann man noch zu dieser Frage sagen?

3.) Warum ist die Determinante eindeutig?

Reicht es hier zu sagen, dass die Determinante ja als die Standarddeterminantenform angewendet auf die Spaltenvektoren der Matrix definiert wurde und somit det [mm] (E_{n}) [/mm] = [mm] D_{0}(e_{1},...,e_{n})=1 [/mm] gilt und es immer nur genau eine alternierende n-Linearform gibt, die auf einer Basis ein bestimmtes Körperelement annimmt??
Ich hoffe, ihr versteht, was ich meine :-)

4.) Haben konjugierte Matrizen das gleiche charakteristische Polynom?

Hier weiß ich selbst leider keine Antwort. Konjugierte Matrizen haben auf jeden Fall die gleichen Eigenwerte, aber ob das charakteristische Polynom gleich aussieht, weiß ich nicht.


Wär echt voll cool, wenn ihr mir weiterhelfen könntet.

LG Leni

        
Bezug
Mathe Zwischenprüfung: Antwort
Status: (Antwort) fertig Status 
Datum: 12:21 Di 11.03.2008
Autor: blascowitz

Hallo
  

> Ich lerne gerade auf die Mathe-Zwischenprüfung und habe ein
> paar Fragen, die ich selbst nicht so ganz beantworten kann.
> Wär super, wenn ihr mir helfen könntet:
>  
> 1.) Warum muss bei Determinante = 1 ein Eigenvektor = 1
> sein?
> Hierzu habe ich selbst leider überhaupt keine Idee :-(
>  

Also zu ersten Frage: Das ist bei allgemeinen Matrizen nicht so. Nimm zum Beispiel die Matrix [mm] $A:=\pmat{ 2 & 1 \\ 1 & 1 }$. [/mm] Die hat Determinante 1 aber keinen EV zum EW 1. Bei orthogonalen Matrizen(Matrizen mit [mm] $A^{T}A [/mm] =E$ gilt: Solche Matrizen haben determinante 1 oder -1 und als Mögliche EW nur 1 oder -1. Bei allgemeinen Matrizen gilt das nicht!!!!!!!!!.

> 2.) Was bedeuten die Eigenwerte für die Determinante einer
> Matrix?
>  
> Was kann man hierzu alles sagen? Die Determinante ist das
> Produkt der Eigenwerte, stimmt das?? Und was kann man noch
> zu dieser Frage sagen?

Also erstmal: Ist null EW dann ist die Determinante 0, dann ist die Matrix nicht invertierbar. Die Determinante der Matrix ist das Produkt der EW.

>  
> 3.) Warum ist die Determinante eindeutig?
>  
> Reicht es hier zu sagen, dass die Determinante ja als die
> Standarddeterminantenform angewendet auf die
> Spaltenvektoren der Matrix definiert wurde und somit det
> [mm](E_{n})[/mm] = [mm]D_{0}(e_{1},...,e_{n})=1[/mm] gilt und es immer nur
> genau eine alternierende n-Linearform gibt, die auf einer
> Basis ein bestimmtes Körperelement annimmt??
>  Ich hoffe, ihr versteht, was ich meine :-)

Das hoffe ich auch mal. Klingt aber gut. D ist ja eine Abbildung von [mm] V^{n} \rightarrow \IK [/mm] mit [mm] D(v_{1},......,v_{i-1},v_{i}+kv'_{i+1}.......,v_{n})=D(v_{1},..............,v_{i-1},v_{i}..........,v_{n})+kD(v_{1},................,v_{i-1},v'_{i},...........v_{n}) [/mm]
und
[mm] D(v_{1},..........,v_{i},.........,v_{j},........v_{n})=0 [/mm] falls [mm] v_{i}=v_{j} [/mm] mit [mm] i\not=j. [/mm]
Weiter sei { [mm] b_{1}............b_{n} [/mm] } eine Basis von V. Weiter sei [mm] D(b_{1}...............b_{n})=k. [/mm] D ist ja deteminantenfunktion genau dann wenn [mm] k\not=0. [/mm] Dann ist D eindeutig bestimmt. Das meintest du glaub ich. Den Beweis spar ich mir jetzt mal, wenn du den haben möchtest schreib noch mal.

> 4.) Haben konjugierte Matrizen das gleiche
> charakteristische Polynom?
>  
> Hier weiß ich selbst leider keine Antwort. Konjugierte
> Matrizen haben auf jeden Fall die gleichen Eigenwerte, aber
> ob das charakteristische Polynom gleich aussieht, weiß ich
> nicht.

Ist es, wenn du mit konjugieren transponieren also das vertauschen von zeilen und spalten meinst. Es gilt nämlich die Gleichung [mm] (A+B)^{T}=A^T+B^T. [/mm] Damit ist [mm] det(\lambda*E-A^{T})=det(\lambda*E-A^{T})^{T}=det((\lambda*E)^{T}-(A^{T})^{T}). [/mm] Nun ist [mm] (A^{T})^{T} [/mm] =A und [mm] (\lambda*E)^{T}=\lambda*E, [/mm] weil [mm] \lambda*E [/mm] eine Symetrische Matrix also [mm] A^{T}=A. [/mm] damit ist [mm] det((\lambda*E)^{T}-(A^{T})^{T})=det(\lambda*E-A). [/mm] Also haben [mm] A^{T} [/mm] das gleiche Charakteristische Polynom, die Gleichen eigenwert mit den gleichen algebraisches Vielfachheiten.

>  
>
> Wär echt voll cool, wenn ihr mir weiterhelfen könntet.
>  
> LG Leni

Einen schönen Tach noch und viele Grüße


Bezug
                
Bezug
Mathe Zwischenprüfung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:54 Di 11.03.2008
Autor: Leni-H

Hallo Blascowitz!

Vielen Dank für deine Antwort! Kannst du für die vorletze Frage den Beweis vielleicht doch noch reinschreiben? Das wär super!!
Und bei der letzten Frage meinte ich mit "konjugieren" nicht transponieren, sondern ich meinte mit einer "konjugierten Matrix" eine "ÄHNLICHE Matrix", also dass zu einer Matrix A ein P [mm] \in GL_{n}(K) [/mm] existiert mit [mm] P^{-1} [/mm] A P = [mm] A_{konj}. [/mm]
Und hier wollte ich dann wissen, ob A das gleiche charakteristische Polynom hat wie [mm] A_{konj}. [/mm]

Liebe Grüße Leni

Bezug
                        
Bezug
Mathe Zwischenprüfung: Antwort
Status: (Antwort) fertig Status 
Datum: 14:51 Di 11.03.2008
Autor: blascowitz

Na du verlangst ja was von mir^^. Also los gehts:



Sei { [mm] b_{1},..................,b_{n} [/mm] } eine Basis von V und sein k [mm] \in \IK. [/mm] Dann gibt es genau eine Funktion D auf V mit den Eigenschaften aus dem Thread zuvor.
Für diese gilt: Wenn [mm] v_{i}= \summe_{j=1}^{n}a_{ij}b_{j}, [/mm] i=1.........n, dann ist [mm] D(v_{1},..........,v_{n})=k*\summe_{\sigma \in S_{n}}^{}sign \sigma \produkt_{i=1}^{n}a_{i\sigma(i)}( [/mm] Behauptung 1)
[mm] S_{n} [/mm] bezeichnet dabei die Permutationsgruppe. D ist eine Determinantenfunktion [mm] \gdw k\not=0. [/mm]

Beweis:
Sei D eine Funktion mit den Eigenschaften
(*): [mm] $D(v_{1},......,v_{i-1},v_{i}+kv'_{i+1}.......,v_{n})=D(v_{1},..............,v_{i-1},v_{i}..........,v_{n})+kD(v_{1},................,v_{i-1},v'_{i},...........v_{n}) [/mm] $
(**) $ [mm] D(v_{1},..........,v_{i},.........,v_{j},........v_{n})=0 [/mm] $ falls [mm] v_{i}=v_{j} [/mm] für [mm] i\not=j [/mm]
(***) $ [mm] D(b_{1}...............b_{n})=k. [/mm] $

Wegen (*) ist dann [mm] D(v_{1},........,v_{n})=D(\summe_{j=1}^{n}a_{1j}b_{j},\summe_{j=1}^{n}a_{2j}b_{j},..........,\summe_{j=1}^{n}a_{nj}b_{j}) [/mm]
[mm] =\summe_{f:[1,.........,n]\rightarrow [1,.........,n]}^{} \produkt_{i=1}^{n}a_{i,f(i)}D(b_{f(1)},................,b_{f(n)}) [/mm] f ist also eine Abbildung von [1............n] nach [1,...............,n]. Guck dir das mal genau an,das die letzte Gleichheit gilt. Dieser Schritt  ist für mich der Knackpunkt des Beweises.
Weiter gehts:
Ist f nicht injektiv dann ist f(i)=f(j) für i [mm] \not=j [/mm] also [mm] D(b_{f(1)},...............,b_{f(n)})=0 [/mm] wegen(**). Also brauchen wir bloß über injektive f's zu summieren. Diese sind wegen der Gleichen Kardinalität der Mengen bijektiv also Permutationen auf {1,.............,n}, also Elemente von [mm] S_{n}. [/mm] Also ist
[mm] D(v_{1},...............v_{n})=\summe_{\sigma \in S_{n}}^{}\produkt_{i=1}^{n}a_{i,\sigma(i)}D(b_{\sigma(1)},.................,b_{\sigma(n)}) [/mm]
Damit haben wir doch schon mal einen teil der oben behaupteten Form von D da stehen.
Es bleibt zu zeigen:
[mm] D(b_{\sigma(1)},.................,b_{\sigma(n)})=k*sign \sigma [/mm]
Jetzt lässt sich jede Permuation [mm] \sigma [/mm] als Produkt von Transpositionen [mm] \tau [/mm] schreiben also [mm] \sigma=\tau_{1}*\tau_{2}*...........*\tau_{n} [/mm]
Jetzt machen wir Induktion über n
Induktionsanfang: n=0
Dann ist [mm] \sigma=\id [/mm] also [mm] D(b_{\sigma(1)},.........,b_{\sigma(n)})=D(b_{1},......,b_{n})=k=k*sign \sigma. [/mm]
Induktionsvoraussetung: [mm] D(b_{\sigma_{0}(1)},.......,b_{\sigma_{0}(n)}=k*sign \sigma_{0} [/mm]
Induktionsschritt:
Sei r >0. Die Transposition [mm] \tau_{1} [/mm] vertausche i und j. Setze [mm] \sigma_{0}=\tau_{2}*\tau_{3}*...............,\tau_{n}, [/mm] also [mm] \sigma=\tau_{1}*\sigma_{0}. [/mm] Weiter sei [mm] \sigma_{0}(x)=i [/mm] und [mm] \sigma_{0}(y)=j. [/mm] Dann ist
[mm] D(b_{\sigma(1)},.......,b_{\sigma(n)})=D(b_{\tau_{1}*\sigma_{0}(1)},.....,b_{\tau_{1}*\sigma_{0}(x)},..........,b_{\tau_{1}*\sigma_{0}(y)},.......b_{\tau_{1}*\sigma_{0}(n)}) [/mm]
[mm] =D(b_{\sigma_{0}(1)},.....,b_{\tau_{1}(i)},..........,b_{\tau_{1}(j)},.......b_{\sigma_{0}(n)})(hier [/mm]  kommen bei allen anderen b's die [mm] \tau_{1} [/mm] weg weil die restlichen punkte ja fixpunkte sind)
[mm] =D(b_{\sigma_{0}(1)},.....,b_{\sigma_{0}(y)},..........,b_{\sigma_{0}(x)},.......b_{\sigma_{0}(n)}) [/mm]
[mm] =-D(b_{\sigma_{0}(1)},.....,b_{\sigma_{0}(x)},..........,b_{\sigma_{0}(y)},.......b_{\sigma_{0}(n)}) [/mm] von zwei elementen führt zur Vorzeichenänderung der Determinante)
=-(k*sign [mm] \sigma_{0})=k*sign \tau_{1}*sign \sigma_{0} [/mm] (weil eine Permutation immer sign [mm] \tau [/mm] = -1 hat) = k*sign [mm] (\tau_{0}*\sigma_{0})=k*sign(\sigma), [/mm] das Wollten wir beweisen. Dies zeigt also: Wenn eine solche FUnktion die die Eigenschaften(*),(**) und (***) erfüllt, Dann gilt  (1) und die Funktion ist eindeutig bestimmt.
Schau dir den Beweis genau an, ich hab lange gebraucht um den zu verstehen. Jetzt müsste man noch die Existenz zeigen aber das schenk ich mir wirklich.

Zur zweiten Frage:

Sei also B eine zu A ähnliche Matrix d.h $ [mm] B=T^{-1}A*T$. [/mm] dann gilt [mm] \det(\lambda*E-B)=\det(\lambda*E-T^{-1}A*T). [/mm] Jetzt Multiplizier ich die Ganze sache vor recht mit [mm] \det(T^{-1}) [/mm] und von Links mit [mm] \det(T) [/mm] und benutze den Determinantenhauptsatz also [mm] \det(A*B)=\det(A)*\det(B). [/mm] dann ist [mm] \det(T)*\det(\lambda*E-T^{-1}A*T)*\det(T^{-1})=\det(T*\lambda*E*T^{-1}-A)=\det(\lambda*E^2-A)=\det(\lambda*E-A). [/mm]  Die [mm] T^{-1} [/mm] und T fallen beim ersten weg weil Skalarmatrizen mit allen Matrizen kommutieren also darf ich die Reihenfolge vertauschen. Allgemeine Matrizenmultiplikation ist ja nicht kommutativ)
Einen schönen Tach noch

Bezug
                                
Bezug
Mathe Zwischenprüfung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 08:49 Do 13.03.2008
Autor: Leni-H

Vielen Dank für die Mühe!!!

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]