www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - Transformationsmatrizen
Transformationsmatrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Transformationsmatrizen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 09:45 Sa 26.08.2006
Autor: garfieldxxs

Hallo!

Ich steh mal wieder auf der Leitung :-)
Eine allgmeine Transformationsmatrix´z.B. zum Diagonalisieren oder für die JNF besteht doch aus den Eigenvektoren als Spalten.

Wann muss denn so eine Matrix jetzt orthonormal sein? Wann müssen die Einträge senkrecht zueinander stehen, warum muss man sie normieren??? Ok, wenn sie orthonormal ist, dann ist der Vorteil, dass die Inverse gleich der Transponierten ist. Aber ist das der einziger Grund??

Danke schonmal für jede Hilfe! Gruß, garfield

        
Bezug
Transformationsmatrizen: Beispiel
Status: (Antwort) fertig Status 
Datum: 13:04 Sa 26.08.2006
Autor: Christian

Hallo.

Hier mal ein Beispiel aus der Praxis. Aus Stochastik II, nennt sich "Hauptkomponentenanalyse". Nun, worum dreht es sich? Man hat einen Zufallsvektor [mm] $Z=\vektor{Z_1\\ \vdots \\ Z_d}$, [/mm] das sind einfach $d$ zufällige Größen (zum Beispiel Länge, Breite und Höhe eines Schildkrötenpanzers, in diesem Fall ist d=3) zusammengefaßt. Diesem Vektor kann man eine sogenannte Covarianzmatrix [mm] $\Sigma$ [/mm] zuordnen. Das ist einfach ein Maß dafür, wie weit die Daten, die man da sammelt, um ihren Mittelwert streuen.
Nun ist so eine Matrix ja unter Umständen ein recht unanschauliches Gebilde. Was man daher machen möchte, ist ein wenig "Kosmetik", so daß man ein Gefühl dafür bekommt, "in welche Richtung" Z am meisten streut.
Was man noch wissen muß, ist, daß [mm] $\Sigma$ [/mm] stets eine symmetrische, nichtnegativ definite Matrix ist. Weiter sei [mm] $\Sigma$ [/mm] nun auch invertierbar.
Dann fangen wir mal los:
Mit ein bißchen linearer Algebra sehen wir, daß es eine Orthonormalbasis [mm] $(u_1,...,u_d)$ [/mm] von lauter Eigenvektoren gibt, sind [mm] $\lambda_1,...,\lambda_d$ [/mm] die zugehörigen Eigenwerte, so gilt also [mm] $\Sigma u_i=\lambda_iu_i$ [/mm] für [mm] $1\le i\le [/mm] d$.
Setze [mm] $Q=(u_1,...,u_d)$, [/mm] das ist unsere Transformationsmatrix. wegen der Orthonormiertheit der Basis folgt $Q^TQ=I$, (I ist die Einheitsmatrix)
Setzt man [mm] $\Lambda=\diag(\lambda_1,...,\lambda_d)=\pmat{\lambda_1 & & \\ & \ddots & \\ & & \lambda_d}$, [/mm] so gilt also [mm] $\Sigma Q=Q\Lambda$ [/mm] bzw. [mm] $Q^T\Sigma Q=Q^{-1}\Sigma Q=\Lambda$. [/mm]
Nun gilt, da [mm] $\left\langle u_i,u_j\right\rangle=\begin{cases}1 & \mbox{für} \ i=j \\ 0 & \mbox{sonst}\end{cases}$, [/mm] daß
[mm] $Z=\sum_{j=1}^d\left\langle Z,u_j\right\rangle u_j$. [/mm]
Diese Gleichung heißt auch Fourier-Darstellung von Z bzgl. der Basis [mm] $u_1,...u_d$. [/mm]
Weiter weiß man, daß die Größen [mm] $\left\langle Z,u_j\right\rangle$ [/mm] die Streuung [mm] $\Var \left\langle Z,u_j\right\rangle=\lambda_j$ [/mm] besitzen.
Nun ordnet man die Eigenwerte nach der Größe, sei also [mm] $\lambda_1\ge\lambda_2\ge\dots\ge\lambda_d>0$. [/mm]
Damit verbindet man die Vorstellung, daß der "Hauptanteil" an Streuung beim Zustandekommen des Vektors $Z$ in Richtung von [mm] $u_1$ [/mm] vorkommt, dann der nächstkleinere in [mm] $u_2$ [/mm] etc..
Sind z.B. die kleinen [mm] $\lambda$'s [/mm] sehr klein, so ist ihr Anteil an der gesamten Streuung vernachlässigbar, und wir haben, daß praktisch nur die ersten [mm] $d_1 [mm] $Z\sim\sum_{j=1}^{d_1}\left\langle Z,u_j\right\rangle u_j$, [/mm] was bedeutet, daß Z "praktisch" [mm] $d_1$-dimensional [/mm] ist. Das nennt man auch "Dimensionsreduktion" und wird besonders bedeutungsvoll, wenn man sehr große Datenmengen zu untersuchen hat.
Ohne die Orthonormiertheit der Eigenvektoren wäre das nie gegangen.

Grüße,
Christian


Bezug
                
Bezug
Transformationsmatrizen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:49 Sa 26.08.2006
Autor: garfieldxxs

Huch... willst Du mir Angst machen? Hilfe - so kompliziert hätte ich das jetzt nicht erwartet. Um ganz ehrlich zu sein, mir ist da noch nicht alles GANZ klar :-)

Ok, ich glaube Dir jetzt, dass das alles ohne die orthonormierung nicht möglich gewesen wäre.

Aber z.B. zum Diagonalisieren brauche ich doch die Normiertheit nicht, oder?? Wann brauche ich sie denn nicht?

Danke für die Mühe!! Gruß, garfield

Bezug
                        
Bezug
Transformationsmatrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 18:25 Sa 26.08.2006
Autor: Christian

Hallo nochmal...

huch, Angst machen wollt ich Dir damit nicht... ich weiß bloß, wie das bei mir in den ersten Semestern mit linearer Algebra war, nämlich, daß ich keine Ahnung hatte, wozu man das Zeugs denn irgendwann mal brauchen könnte, und daß uns das auch kein Mensch gesagt hat. Das hier war einfach bloß ein Beispiel, an dem man die Anwendung dieses ganzen Krams sehen kann; Sinn ist hierbei wie gesagt, Dimensionsreduktion, Du nimmst z.B. an einem Patienten in einer Klinik 100 Daten auf (und das sind wenig...), sowas wie Größe, Alter, Geschlecht, mehrere Blutwerte.......... das ist dann Dein d=100-dimensionaler Vektor. Aus genügend vielen solchen Vektoren erhält man die Kovarianzmatrix (keine Angst, Du brauchst nicht zu wissen, was das im Detail ist), die wird diagonalisiert, wobei Du dann feststellst, daß beispielsweise 80 der 100 Werte einen sehr kleinen Anteil am Zustandekommen der Werte haben und diese kannst Du dann bei zukünftigen Messungen/Rechnungen vernachlässigen, was doch ein Fortschritt ist... alles klar?
Das war nur als motivierendes Beispiel gedacht.
Und Deine Aussage stimmt, für die Diagonalisierung brauchst Du keine Orthonormiertheit.

Gruß,
Christian

Bezug
                                
Bezug
Transformationsmatrizen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:12 Sa 26.08.2006
Autor: garfieldxxs

Nein, nein - irgendwann werde ich sowas dann hoffentlich auch kapieren aber das ist im Moment eben noch etwas hoch :-)
Aber mir ist jetzt klar, um was es in etwa geht.
Ja stimmt, Du hast schon Recht, ich habe mich auch schon ab und zu gefragt, wozu soetwas wohl praktisch angewendet wird...

Also, wenn ich das richtig verstanden habe, dann brauche ich die Orthonormierung nicht, sie ist aber nicht dumm, da ich mir damit quasi die Invertierung sparen kann, oder?

viele Grüße & Danke nochmal, Garfield!

Bezug
                                        
Bezug
Transformationsmatrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 22:35 Sa 26.08.2006
Autor: Christian

Hallo nochmal!

> Nein, nein - irgendwann werde ich sowas dann hoffentlich
> auch kapieren aber das ist im Moment eben noch etwas hoch
> :-)

Das kommt schon. Sicher.

> Aber mir ist jetzt klar, um was es in etwa geht.
> Ja stimmt, Du hast schon Recht, ich habe mich auch schon ab
> und zu gefragt, wozu soetwas wohl praktisch angewendet
> wird...
>
> Also, wenn ich das richtig verstanden habe, dann brauche
> ich die Orthonormierung nicht, sie ist aber nicht dumm, da
> ich mir damit quasi die Invertierung sparen kann, oder?

Dumm sind die wenigsten Sachen in der Mathematik, es dauert bloß manchmal ne Weile, bis man sie zu schätzen lernt. Falls die Eigenvektoren nicht normiert sind, zahlt man halt bloß einen winzig kleinen Aufpreis, nämlich, daß die Matrix Q^TQ nicht mehr die Einheitsmatrix ist.
Es kommt eben immer drauf an, was man haben will.

> viele Grüße & Danke nochmal, Garfield!  

Nix zu danken,
Gruß,

Christian

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]