Bew: lineare Regression < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 23:51 So 11.03.2018 | Autor: | Jellal |
Guten Abend,
ich habe Probleme, den Beweis der linearen Regression nachzuvollziehen.
Seien [mm] (x_{i},y_{i}) [/mm] mit verschiedenen [mm] x_{i}, 1\le i\le [/mm] n
Gesucht sind Parameter [mm] b=b_{0} [/mm] und [mm] a=a_{0} [/mm] für die Gerade y=bx+a, sodass [mm] \summe_{i=1}^{n}(y_{i}-bx_{i}-a)^{2} [/mm] minimal wird.
Dies ist erfüllt für [mm] b_{0}=\bruch{\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\summe_{i=1}^{n}(x_{i}-x_{m})} [/mm] und [mm] a=y_{m}-x_{m}b_{0} [/mm] mit [mm] x_{m} [/mm] und [mm] y_{m} [/mm] als den arithmetischen Mittelwerten der Realisierungen.
Zum Beweis wurde zuerst der Hilfssatz bewiesen:
Für zwei ZV X,Y mit Var(X),Var(Y)>0 und endlich, ist das Optimierungsproblem [mm] E((y-d_{2}x-d_{1})^{2})=min_{u,v}E((y-vx-u)^{2}) [/mm] gelöst durch [mm] d_{2}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}} [/mm] mit [mm] \delta [/mm] als Korrelationskoeffizient und [mm] d_{1}=E(Y)-d_{2}E(X).
[/mm]
Damit soll nun die lineare Regression bewiesen werden.
Man betrachte das "empirische Maß" [mm] P=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{(x_{i},y_{i})} [/mm] auf [mm] IR^{2} [/mm] mit [mm] \epsilon [/mm] als Einpunktmaß.
Erste Frage: Warum muss ich das wählen? Sollte man das nicht allgemein zeigen?
Weiter seien X(x,y)=x Y(x,y)=y die ZV der Projektionen.
1. Fall: Alle [mm] y_{i} [/mm] gleich. Das ist trivial.
2. Fall: nicht alle gleich. Dann sind Var(Y)>0 und eh nach Vor. Var(X)>0.
[mm] E_{p}((y-cx-d)^{2})=\bruch{1}{n}\summe_{i=1}^{n}(y_{i}-cx_{i}-d)^{2} [/mm] soll minimiert werden und hat nach Hilfssatz die Lösung [mm] b_{0}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}=\bruch{Cov(X,Y)}{Var(X)}=\bruch{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})}
[/mm]
Zweite Frage: Wie kommt der Zähler im letzten Schritt zustande?
Es ist doch [mm] Cov(X,Y)=E(XY)-E(X)E(Y)=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -x_{m}y_{m} [/mm]
[mm] =\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{m} =\bruch{1}{n}\summe_{i=1}^{n}x_{i}(y_{i}-y_{m})
[/mm]
oder liege ich da falsch?
Viele Grüße
|
|
|
|
Hiho,
> Zum Beweis wurde zuerst der Hilfssatz bewiesen:
> Für zwei ZV X,Y mit Var(X),Var(Y)>0 und endlich, ist das
> Optimierungsproblem
> [mm]E((y-d_{2}x-d_{1})^{2})=min_{u,v}E((y-vx-u)^{2})[/mm] gelöst
> durch
> [mm]d_{2}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}[/mm]
> mit [mm]\delta[/mm] als Korrelationskoeffizient und
> [mm]d_{1}=E(Y)-d_{2}E(X).[/mm]
Mir ist jetzt nicht ganz klar, ob dir der Beweis des Hilfssatzes unklar ist, oder ob das Resultat nun klar ist… ich gehe erst mal aus, dass dir bis hierhin alles klar ist… wenn nicht, frag nochmal nach.
> Damit soll nun die lineare Regression bewiesen werden.
> Man betrachte das "empirische Maß"
> [mm]P=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{(x_{i},y_{i})}[/mm] auf
> [mm]IR^{2}[/mm] mit [mm]\epsilon[/mm] als Einpunktmaß.
>
> Erste Frage: Warum muss ich das wählen? Sollte man das
> nicht allgemein zeigen?
WAS soll allgemein gezeigt werden? Der Hilfssatz gilt natürlich unabhängig vom Maß (darum meine Frage vorhin), die Gesamtaussage zur linearen Regression gilt natürlich nur unter dem empirischen Maß…
> und hat nach Hilfssatz die Lösung
> [mm]b_{0}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}=\bruch{Cov(X,Y)}{Var(X)}=\bruch{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})}[/mm]
>
> Zweite Frage: Wie kommt der Zähler im letzten Schritt zustande?
Es ist $Cov(X,Y) = E(XY) - E(X)E(Y) = [mm] E\left((X - E(X))(Y - E(Y))\right)$
[/mm]
Verwende die zweite Darstellung für die Kovarianz.
> Es ist doch
> [mm]Cov(X,Y)=E(XY)-E(X)E(Y)=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -x_{m}y_{m}[/mm]
> [mm]=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{m} =\bruch{1}{n}\summe_{i=1}^{n}x_{i}(y_{i}-y_{m})[/mm]
>
> oder liege ich da falsch?
Nö, das sind nur alles andere Darstellungen fürs selbe Ergebnis.
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:22 Mo 12.03.2018 | Autor: | Jellal |
Hallo Gonozal,
danke für die Antwort.
Genau, den Beweis des Hilfssatz habe ich verstanden, aber mich hat gewundert, dass ich bei der linearen Regression ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe ich noch nie gehört. Zudem glaube ich, mich zu erinnern, dass man die Formel allein mit Differentialrechnung beweisen kann, ohne irgendwelche Wmaße.
Ein Wmaß kommt doch nur über die Verteilung der [mm] y_{i} [/mm] rein und die ist doch erstmal beliebig?
Das mit der Covarianz leuchtet ein... ich muss mir unbedingt alle Definitionen einprägen, nicht nur die, die zum Rechnen meist praktischer ist...
Ähnliche Sache:
In einem anderen Beweis wurde die empirische Varianz eingeführt: [mm] S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} [/mm] für Realisierungen [mm] x_{i} [/mm] von i.i.d Zufallszahlen [mm] X_{i}, Var(X_{i})>0.
[/mm]
Der Satz sagt nun aus, dass [mm] S_{n}^{2} [/mm] für n [mm] \ge [/mm] 2 ein erwartungstreuer Schätzer für [mm] Var(X_{i}) [/mm] ist.
Den Beweis verstehe ich auch, bis auf die Stelle, an der gesagt wird, dass [mm] S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2})
[/mm]
Ist das auch trivial zu sehen? Wenn ich [mm] S_{n} [/mm] manuell quadriere, kommt da doch erstmal ein sehr hässlicher Term raus...
|
|
|
|
|
Hiho,
> Genau, den Beweis des Hilfssatz habe ich verstanden, aber
> mich hat gewundert, dass ich bei der linearen Regression
> ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe
> ich noch nie gehört. Zudem glaube ich, mich zu erinnern,
> dass man die Formel allein mit Differentialrechnung
> beweisen kann, ohne irgendwelche Wmaße.
Da stehen nun zwei Themen drin:
1.) empirisches W-Maß
2.) Beweisart des Satzes
Zu 1.):
Die Sache mit dem "empirischen W-Maß" ist eigentlich relativ simpel. Du möchtest ja eine Verteilung schätzen, was eigentlich ein Bildmaß und damit insbesondere ein W-Maß ist.
Nun kommt der Fakt hinzu, dass in der W-Theorie oftmals "Verteilung" und "Verteilungsfunktion" synonym verwendet werden, da äquivalent. Rein formal sind das zwar verschiedene mathematische Objekte, aber da schert sich niemand drum, weil "klar" ist, was gemeint ist.
Nun haben wir also eine reelle ZV X, von der man die genaue Verteilungsfunktion nicht kennt, sondern nur schätzen kann, indem man Realisierungen betrachtet. Und die geschätzte Verteilungsfunktion nennt man "empirische Verteilungsfunktion".
Definiert man also [mm] $F_n [/mm] = [mm] \frac{1}{n}\sum_{i=1}^n 1_{(-\infty,x_i]}$ [/mm] (was sinnvoll ist um eine empirische Verteilung zu erhalten, mach dir das klar) so erhält man für jedes $n [mm] \in \IN$ [/mm] eine Verteilungsfunktion und es gilt: [mm] $\lim_{n\to\infty} F_n [/mm] = F$, wobei F die (reale) Verteilungsfunktion von X ist.
Je mehr Realisierungen man also betrachtet, desto genauer entspricht die geschätzte Verteilungsfunktion der realen (yay!).
Nun definiert jede Verteilungsfunktion ein W-Maß und umgekehrt. Zu jeder empirischen Verteilungsfunktion [mm] $F_n$ [/mm] gibt es nun also ein W-Maß [mm] $P_n$, [/mm] was die Verteilung zur entsprechenden Verteilungsfunktion [mm] $F_n$ [/mm] ist gemäß:
[mm] $F_n(x) [/mm] = [mm] P_n\left((-\infty,x]\right)$ [/mm] bzw:
[mm] $P_n((a,b]) [/mm] = [mm] F_n(b) [/mm] - [mm] F_n(a)$
[/mm]
Nimmt man die Darstellung der [mm] $F_n$ [/mm] oben, ergibt sich gerade für $ [mm] P_n=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{x_{i}} [/mm] $ wobei [mm] $\varepsilon_x$ [/mm] das Einpunktmaß bzw Diracmaß auf x darstellt.
Und [mm] P_n [/mm] heißt dann "empirisches W-Maß".
zu 2.)
Du hast vermutlich recht, dass man die eigentliche Aussage des Satzes auch ohne W-Maße beweisen kannst… das ist so ein bisschen wie folgender Satz:
Zu zeigen:
[mm] $\left(\sum_{k=i}^n x_iy_i\right)^2 \le \sum_{k=i}^n x_i^2 \sum_{k=i}^n y_i^2$
[/mm]
Das kann man nun elementar zeigen (und macht man u.U. in Analysis I auch oft), oder man zeigt, dass für Skalarprodukte die Cauchy-Schwarzsche-Ungleichung
[mm] $||^2 \le [/mm] <x,x><y,y>$ gilt und benutzt, dass $<x,y> = [mm] \sum_{k=i}^n x_iy_i$ [/mm] ein Skalarprodukt ist
Der zweite Weg ist halt schöner…
> Ein Wmaß kommt doch nur über die Verteilung der [mm]y_{i}[/mm]
> rein und die ist doch erstmal beliebig?
Die Frage versteh ich nicht… wieso [mm] $P_n$ [/mm] ein W-Maß ist, hab ich oben erklärt.
> Ähnliche Sache:
> In einem anderen Beweis wurde die empirische Varianz
> eingeführt:
> [mm]S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] für Realisierungen [mm]x_{i}[/mm] von i.i.d Zufallszahlen [mm]X_{i}, Var(X_{i})>0.[/mm]
Bist du dir mit den Indizes und/oder dem Vorfaktor sicher?
Ich kenne bisher nur: [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bzw [mm]S_{n}=\bruch{1}{n-1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bei jeweils n Summanden.
Wie der unterschiedliche Vorfaktor zustande kommt, wird bei Wikipedia schön erklärt.
D.h. ein Vorfaktor von [mm] $\frac{1}{n+1}$ [/mm] macht eigentlich nur Sinn, wenn man n+1 Summanden hat… dann müsste deine Summe aber bei $i=0$ starten oder bis $n+1$ gehen…
> Den Beweis verstehe ich auch, bis auf die Stelle, an der
> gesagt wird, dass
> [mm]S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2})[/mm]
Schau nochmal nach, ob da wirklich [mm] $S_n^2$ [/mm] steht. Es gilt nämlich schlichtweg [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} = \bruch{1}{n}\summe_{i=1}^{n}(x^2_{i}-x_{m}^{2}) =
\bruch{1}{n}\summe_{i=1}^{n}x^2_{i}-x_{m}^{2} [/mm]
Was einfach aus dem Verschiebungssatz folgt, der besagt:
$Var(X) = [mm] E\left[\left(X - E[X]\right)^2\right] [/mm] = [mm] E[X^2] [/mm] - [mm] E^2[X]$
[/mm]
Ist nun [mm] $x_{m}$ [/mm] ein Schätzer für $E[X]$ so ist [mm] $x_m^2$ [/mm] einer für [mm] $E^2[X]$ [/mm] und der Rest ist verwenden des empirischen W-Maßes.
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 18:01 Mo 12.03.2018 | Autor: | Jellal |
Danke dir für die ausführliche Antwort.
> Hiho,
>
> > Genau, den Beweis des Hilfssatz habe ich verstanden, aber
> > mich hat gewundert, dass ich bei der linearen Regression
> > ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe
> > ich noch nie gehört. Zudem glaube ich, mich zu erinnern,
> > dass man die Formel allein mit Differentialrechnung
> > beweisen kann, ohne irgendwelche Wmaße.
>
> Da stehen nun zwei Themen drin:
>
> 1.) empirisches W-Maß
> 2.) Beweisart des Satzes
>
> Zu 1.):
> Die Sache mit dem "empirischen W-Maß" ist eigentlich
> relativ simpel. Du möchtest ja eine Verteilung schätzen,
> was eigentlich ein Bildmaß und damit insbesondere ein
> W-Maß ist.
> Nun kommt der Fakt hinzu, dass in der W-Theorie oftmals
> "Verteilung" und "Verteilungsfunktion" synonym verwendet
> werden, da äquivalent. Rein formal sind das zwar
> verschiedene mathematische Objekte, aber da schert sich
> niemand drum, weil "klar" ist, was gemeint ist.
>
> Nun haben wir also eine reelle ZV X, von der man die
> genaue Verteilungsfunktion nicht kennt, sondern nur
> schätzen kann, indem man Realisierungen betrachtet. Und
> die geschätzte Verteilungsfunktion nennt man "empirische
> Verteilungsfunktion".
>
> Definiert man also [mm]F_n = \frac{1}{n}\sum_{i=1}^n 1_{(-\infty,x_i]}[/mm]
> (was sinnvoll ist um eine empirische Verteilung zu
> erhalten, mach dir das klar) so erhält man für jedes [mm]n \in \IN[/mm]
> eine Verteilungsfunktion und es gilt: [mm]\lim_{n\to\infty} F_n = F[/mm],
> wobei F die (reale) Verteilungsfunktion von X ist.
> Je mehr Realisierungen man also betrachtet, desto genauer
> entspricht die geschätzte Verteilungsfunktion der realen
> (yay!).
Dass [mm] F_{n} [/mm] --> F läuft, folgt formal woraus? Schwaches Gesetz der großen Zahlen? Das hatten wir bisher nur mit dem Wmaß formuliert. Intuitiv ist es ja klar.
> > Ein Wmaß kommt doch nur über die Verteilung der [mm]y_{i}[/mm]
> > rein und die ist doch erstmal beliebig?
>
> Die Frage versteh ich nicht… wieso [mm]P_n[/mm] ein W-Maß ist,
> hab ich oben erklärt.
Ich habe bei der Einführung eines Wmaßes in dem Beweis eben nach Wmaßen im ursprünglichen Satz gesucht. Aber da ist eben nur eine Zufallszahl Y mit unbekannter Verteilung. Diese unbekannte Verteilung kann ja beliebig sein, daher hatte es mich gewundert, dass im Beweis eine bestimmte benutzt wird.
> > Ähnliche Sache:
> > In einem anderen Beweis wurde die empirische Varianz
> > eingeführt:
> > [mm]S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] für
> Realisierungen [mm]x_{i}[/mm] von i.i.d Zufallszahlen [mm]X_{i}, Var(X_{i})>0.[/mm]
>
> Bist du dir mit den Indizes und/oder dem Vorfaktor sicher?
> Ich kenne bisher nur:
> [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bzw
> [mm]S_{n}=\bruch{1}{n-1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bei
> jeweils n Summanden.
> Wie der unterschiedliche Vorfaktor zustande kommt, wird
> bei Wikipedia
> schön erklärt.
> D.h. ein Vorfaktor von [mm]\frac{1}{n+1}[/mm] macht eigentlich nur
> Sinn, wenn man n+1 Summanden hat… dann müsste deine
> Summe aber bei [mm]i=0[/mm] starten oder bis [mm]n+1[/mm] gehen…
>
> > Den Beweis verstehe ich auch, bis auf die Stelle, an der
> > gesagt wird, dass
> >
> [mm]S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2})[/mm]
>
> Schau nochmal nach, ob da wirklich [mm]S_n^2[/mm] steht.
Der Vorfaktor ist natürlich Quatsch, das + habe ich beim Drüberlesen nicht mehr bemerkt, tut mir Leid. Wir haben die (n-1) im Nenner.
Aber das hoch 2 über den [mm] S_{n} [/mm] steht so genau im Skript. An mehreren Stellen. er hat im Satz geschrieben:
" [mm] S_{n}^{2} [/mm] ist ein e-treuer Schätzer für [mm] \sigma^{2} [/mm] und vielleicht nicht bemerkt das [mm] S_{n} [/mm] selbst nicht für die empirische Standardabweichung sondern die Varianz steht?
Und es dann so im Beweis wieder gemacht.
Also ist die empirische Varianz ein etreuer Schätzer für die echte Varianz.
>
>Es gilt nämlich schlichtweg
> [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} = \bruch{1}{n}\summe_{i=1}^{n}(x^2_{i}-x_{m}^{2}) =
\bruch{1}{n}\summe_{i=1}^{n}x^2_{i}-x_{m}^{2}[/mm]
>
> Was einfach aus dem Verschiebungssatz folgt, der besagt:
>
> [mm]Var(X) = E\left[\left(X - E[X]\right)^2\right] = E[X^2] - E^2[X][/mm]
>
> Ist nun [mm]x_{m}[/mm] ein Schätzer für [mm]E[X][/mm] so ist [mm]x_m^2[/mm] einer
> für [mm]E^2[X][/mm] und der Rest ist verwenden des empirischen
> W-Maßes.
>
> Gruß,
> Gono
Ich verstehe. Hier rwird dann auch wieder das "empirische Maß" benutzt, sodass ich mit der empirischen Varianz bzgl. dieses Maßes ganz normal rechnen kann.
Das empirische Maß ist dann im Grunde genommen eine Gleichverteilung auf meinen Realisierungen, wenn ich das richtig sehe.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:20 Mi 14.03.2018 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Hallo Jellal
Ein Zitat aus deiner Anfrage:
"Damit soll nun die lineare Regression bewiesen werden."
Da habe ich mich einfach gefragt:
"Was genau, welche Aussage soll denn nun da bewiesen werden ?"
Nach meiner Ansicht sollte man (insbesondere als Student
der Naturwissenschaften) sich bemühen, klar auszudrücken,
worum es bei einem Beweis tatsächlich gehen soll. Zwar
können wir (als Leute, die sich in dem Bereich auskennen
und irgendwie vermuten können, was gemeint sein könnte)
uns ungefähr ausmalen, worum es in dem geforderten Beweis
gehen sollte - aber wir erwarten (meiner Meinung nach sehr
berechtigterweise) von dir selber, dass du deine Überlegungen
klar darstellst und eben auch in der Lage bist (oder dahin
kommen solltest), bei einem Beweis die gemachten Annahmen
und die zu beweisende Aussage klar zu Papier zu bringen.
Nimm dies bitte nicht einfach als eine (negative) Kritik,
sondern als eine Anregung, deine Überlegungen und Fragen
klarer zu formulieren.
LG , Al-Chwarizmi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:07 Mo 12.03.2018 | Autor: | Jellal |
Hallo Al-Chwarizmi,
was bewiesen werden soll steht doch klar und deutlich am Anfang: Dass das Problem der linearen Regression (welches auch hingeschrieben wurde) durch die genannten [mm] a_{0} [/mm] und [mm] b_{0} [/mm] gelöst wird.
|
|
|
|
|
> Hallo Al-Chwarizmi,
>
> was bewiesen werden soll steht doch klar und deutlich am
> Anfang: Dass das Problem der linearen Regression (welches
> auch hingeschrieben wurde) durch die genannten [mm]a_{0}[/mm] und
> [mm]b_{0}[/mm] gelöst wird.
Genau das hast du aber nicht (wenigstens nicht so) geschrieben.
Du wolltest "die lineare Regression beweisen" - aber das ist
zumindest eine falsche bzw. unverständliche Ausdrucksweise.
Du hättest z.B. schreiben können: "Ich zeige nun, dass die
Werte $\ [mm] a_0:=\ [/mm] ....$ und $\ [mm] b_0:=\ [/mm] ....$ (unter den und den Voraussetzungen)
die (eindeutige) Lösung des gestellten Minimalproblems darstellen."
Formulierungen sind wichtig. Es geht nicht nur darum, die
richtigen Formeln anzugeben. Einen Beweis darzustellen, ist
durchaus auch eine sprachliche Leistung, wobei es auf die
Feinheiten der Bedeutungen wesentlich mehr ankommt als
in vielen anderen Sparten von Texten.
LG , Al-Chw.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:08 Mo 12.03.2018 | Autor: | Jellal |
Ich stimme dir zwar zu, dass formale Ausdrucksweise wichtig ist, nur denke ich, dass meine ersten Zeilen so auch in jedem beliebigen Skript zu finden wären.
Problem: "gesucht sind parameter a, b, sodass folgende summe minimal wird blabla"
Satz: "dies ist erfüllt für [mm] b_{0}= [/mm] xxx, [mm] a_{0}=yyy"
[/mm]
Bew: ...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:24 Mo 12.03.2018 | Autor: | chrisno |
Ich hoffe sehr, dass so etwas nicht in Skripten vorkommt.
Ein Satz, eine Behauptung wird bewiesen.
Du schreibst: "den Beweis der linearen Regression nachzuvollziehen"
und "Damit soll nun die lineare Regression bewiesen werden."
Ich rate, solche Formulierungen nicht in der Nähe eines Dozenten oder in einer Prüfung zu verwenden. Das führt zu massiver Abwertung.
Die lineare Regression ist eine Methode. Es können Eigenschaften einer Methode bewiesen werden, aber nicht die Methode an sich.
.... (Da stand ein Textrest.)
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:39 Mo 12.03.2018 | Autor: | Jellal |
Die von dir, Chrisno, rausgepickte Formulierung war sicher schwammig, aber irrelevant, da oben, am Anfang meines Beitrags, genau steht, was bewiesen werden soll.
Problem, Aussage, Beweis. Gängige Struktur in jedem Skript und Lehrbuch.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:59 Mo 12.03.2018 | Autor: | Diophant |
Hallo Jellal,
nimms nicht so ernst. Einige User hier haben leider eine unterentwickelte Lesekompetenz. Obwohl ich von der Materie nicht viel Ahnung habe, hatte ich persönlich keinerlei Probleme, dein Anliegen zu verstehen.
Dein erster Satz
> ..., den Beweis der linearen Regression nachzuvollziehen.
da gebe ich den Vorrednern recht, der sollte so in einer mathematischen Literatur oder auch in einem offiziellen Aufschrieb deinerseits nicht verwendet werden.
Hier geht es aber um eine Frage in einem Forum, da hat dieser Satz einfach einleitenden Charakter, und alles was danach kommt ist ja präzise formuliert. Und damit spielt es keine Rolle, ob dieser Satz nun im Sinne der Mathematik semantisch in Ordnung ist oder nicht.
Daher mein Unverständnis an der Hermumnörgelei an deiner Ausgangsfrage (beachte: ich selbst kritisiere hier solche Dinge auch desöfteren, aber eine solche Kritik sollte einen approximativen Sinn ergeben, sonst sollte man es bleiben lassen).
Gruß, Diophant
|
|
|
|
|
> nimms nicht so ernst. Einige User hier haben leider eine
> unterentwickelte Lesekompetenz.
Wir wissen, gegen wen wahrscheinlich diese Bemerkung
gerichtet sein soll .... aber mit der Zeit nimmt man solche
vergifteten Pfeile auch nicht mehr ernst.
Kümmere dich doch um deine eigenen unterentwickelten
(z.B. sozialen) Kompetenzen ...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:59 Mo 12.03.2018 | Autor: | Jellal |
Lasst uns alle cool bleiben x-)
Ich gebe mir schon Mühe, mich klar auszudrücken. Stehe nur unter Zeitdruck, daher hapert es vielleicht in einem längeren Posting an der einen oder anderen Stelle, was die Exaktheit angeht.
|
|
|
|
|
> Lasst uns alle cool bleiben x-)
Ganz einverstanden, ich gebe mir Mühe.
Dir habe ich gleich zu Anfang gesagt, dass meine
Bemerkung nicht als Kritik aufzufassen sei, sondern
als (gut gemeinte) Anregung zu besseren Formulierungen.
Schönen Tag !
Al-Chwarizmi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:58 Mo 12.03.2018 | Autor: | ChopSuey |
Hallo,
> Hallo Jellal,
>
> nimms nicht so ernst. Einige User hier haben leider eine
> unterentwickelte Lesekompetenz.
Deine nahezu täglichen abwertenden Bemerkungen gegen bestimmte User oder das Forum in allgemeinem Sinne fangen an tierisch zu nerven.
Es wäre angemessen, solche Kommentare in Zukunft für sich zu behalten oder ich werde einfach grundsätzlich deine Beiträge angemessen moderieren und alles, was irrelevant ist, ohne Kommentar löschen.
>
> Daher mein Unverständnis an der Hermumnörgelei
Wer im Glashaus sitzt, sollte nicht mit Steinen werfen.
>
> Gruß, Diophant
ChopSuey
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:25 Di 13.03.2018 | Autor: | Diophant |
Hallo,
> Deine nahezu täglichen abwertenden Bemerkungen gegen
> bestimmte User oder das Forum in allgemeinem Sinne fangen
> an tierisch zu nerven.
Nun, dann hätte ich wenigstens etwas erreicht: das sollen sie ja.
Gruß, Diophant
|
|
|
|