Was ist die Kovarianz und wie unterscheidet sie sich von der Varianz?

Zuletzt aktualisiert: 15.02.2024

Ein Maßstab für die Ausbreitung der Wahrscheinlichkeitsdichtefunktion um ihren Fokus ist die Variabilität ( lateinisch variantia Unterschiedlichkeit beziehungsweise variare verändern, unterschiedlich sein ). Sie wird arithmetisch beschrieben als die mittlere viereckige Differenz einer realen Zufallsgröße von ihrem Erwartungswert. Der wesentliche Augenblick zweiter Reihenfolge einer Zufallsgröße ist sie.

Mit einem Varianzschätzer, zum Beispiel der Stichprobenvarianz, festgelegt werden kann die Variabilität. Der als Varianz bezeichnete bedeutendste Streuungsparameter in der Wahrscheinlichkeitsrechnung ist die Wurzel der Variabilität.

Vor allem von dem großbritannischen Statistiker Ronald Fisher gekennzeichnet wurde der Name Variabilität. Die altmodische Zerstreuung, das Streuungsquadrat oder die Streubreite sind weitere Begriffe für die Variabilität.

Zu den Eigenheiten der Variabilität gehört, dass sie nie nachteilig ist und sich bei Verlegung der Distribution nicht ändert. Identisch dem Betrag ihrer Variabilitäten ist die Variabilität eines Betrages unkorrelierter Zufallsgrößen. Eine Benachteiligung der Variabilität für verwendbare Applikationen ist, dass sie im Gegensatz zur Varianz eine andere Einheitlichkeit als die Zufallsgröße besitzt. Da sie über ein Integral festgelegt wird, existiert sie nicht für alle Distributionen, d. h. sie kann außerdem endlos sein.

Die Kovarianz ist eine Induktion der Variabilität. Die Kovarianz ist im Gegensatz zur Variabilität ein Maßstab für die einheitliche Varianz von zwei Zufallsgrößen. Die Variabilität misst die Varianz der Zufallsgröße, die betrachtet ist. Aus dieser Begriffsbestimmung der Kovarianz folgt, dass die Kovarianz einer Zufallsgröße mit sich selber identisch der Variabilität dieser Zufallsgrößen ist. Die Variabilität kann im Situation eines wirklichen Zufallsvektors zur Varianz-Kovarianzmatrix generalisiert werden.

Was bedeutet Die Variabilität einer Zufallsgröße ?

Sei (Ω, Σ, P) ein Wahrscheinlichkeitsraum und X eine Zufallsgröße auf jenem Zimmer. Beschrieben als die zu erwartende viereckige Differenz dieser Zufallsgrößen zu ihrem Erwartungswert ist die Variabilität E{X) = µ , sofern dieser existiert:

[{displaystyle operatorname {Var} (X):=mathbb {E} left((X-mu )^{2}right)=int _{Omega }(X-mu )^{2},mathrm {d} P.}]

Wann ist Die Variabilität einer Zufallsgröße unendlich?

Sofern die Variabilität existiert, gilt Var(X) ≥ 0. Die Wertigkeit kann die Variabilität aber ebenfalls Var(X) ⁡= ∞ {displaystyle operatorname {Var}=infty }

bejahen, wie es bei der Lévy-Verteilung die Lage ist. Eine Distribution, die keine Wechselhaftigkeit hat, ist die Cauchy-Verteilung, da für diese der Erwartungswert nicht festgelegt ist.

Wir betrachten die Zufallsgröße, die zentriert ist Z := X − μ, so ist die Wechselhaftigkeit deren zweiter Augenblick E{Z2) . Falls eine Zufallsgröße viereckig integrierbar ist, das heißt E{X2) < , so sind wegen des Verschiebungssatzes ihre Variabilität wie ebenso der Erwartungswert begrenzte Größenordnungen:

[{displaystyle 0leq (X-1)^{2}+|X|implies |X|leq X^{2}+1implies mathbb {E} (|X|)leq mathbb {E} (X^{2})+1<infty }]

Die Variabilität als Funktional auf dem Bereich der Verteilungen ist was ?

Ein Funktional auf dem Bereich der Zufallsgrößen mit begrenztem Erwartungswert ist die Variabilität. Als nicht-lineares Funktional auf dem Bereich aller Verteilungen x1 kann Sie aber ebenfalls, die einen begrenzten Erwartungswert besitzen, begriffen werden:

[{displaystyle {begin{aligned}operatorname {Var} [cdot ]&:chi _{1}to mathbb {R} _{+}cup {infty };,operatorname {Var} [F]&=int (x-mu (F))^{2}mathrm {d} F(x);.end{aligned}}}]

Die Verteilungen mit ihren Verteilungsfunktionen werden dabei erkannt. Für Verteilungen, deren Erwartungswert μ nicht begrenzt ist, ist die Variabilität nicht beschrieben.

Wie wird gewöhnlich die Variabilität verzeichnet ?

Sie wird wie der Erwartungswert häufig ebenfalls mit quadratischen Klammern Var[X] geschrieben, da die Variabilität ein Funktional ist

Bisweilen als wird Sie V(X) oder σ2x notiert. Keine Konfusionsgefahr besteht, sie wird schlicht als σ2 notiert. Die Notationsweise begegnet oft, da die Variabilität vor allem in ältlicherer Literatur ebenfalls als Streubreite beziehungsweise Zerstreuung genannt wurde D2 .

Die Notationsweise mit dem Viereck des hellenischen Zeichens Sigma σ rührt daher, dass die Abrechnung der Variabilität der Dichte einer Normalverteilung exakt der Kenngröße σ2 der Normalverteilung entspricht. Die Variabilität wird im Allgemeinen mit, da die Normalverteilung in der Wahrscheinlichkeitsrechnung eine äußerst zentrale Stellung spielt σ2 notiert. Die Symbolfigur wird darüber hinaus in der Zahl und speziell in der Regressionsanalyse σ2 verwendet, um die wirkliche unentdeckte Variabilität der Störgrößen zu charakterisieren.

Warum wird die Variabilität der mittleren absolutistischen Verschiedenheitbevorzugt ?

Als Ansatzpunkt für den Aufbau der Variabilität betrachtet man eine zufällige Größenordnung, die vom Zufälligkeit bedingt ist und daher verschiedene Wertigkeiten entgegennehmen kann. Diese Größenordnung, die im Folgenden mit X genannt wird, folgt einer eindeutigen Distribution. Mit wird der Erwartungswert dieser Größenordnung.

[{displaystyle mu :=mathbb {E} (X)}]

gekürzt und gibt an, welchen Stellenwert die Zufallsgröße X im Summe annimmt. Als Fokus der Distribution betrachtet werden kann er und er gibt ihre Position wieder. Es bedarf zur genügender Darstellung einer Distribution aber nochmal einer Größenordnung. Die Größenordnung gibt als Messgröße Hinweis über die Heftigkeit der Streubreite einer Distribution um ihren Fokus. Da sich abträgliche Streubreite nicht zweckvoll verstehen lässt, sollte diese Größenordnung immer riesiger oder ähnlich Null sein. Eine erste naheliegende Vorgehensweise wäre, die mittlere totale Divergenz der Zufallsgröße von ihrem Erwartungswert heranzuziehen:

[{displaystyle mathbb {E} left(|X-mu |right)}]

Da die in der Erklärung der mittleren absolutistischen Differenz benutzte Betragsfunktion nicht allenthalben unterscheidbar ist und sonst in der Zahl für gängig Quadratsummen verwendet werden, ist es sinnhaft, statt mit der mittleren absolutistischen Abschweifung mit der mittleren viereckigen Abschweifung, somit der Variabilität, zu verfahren.

warum wird die Variabilität statt der mittleren absolutistischen Verschiedenheit benutzt?

Wie berechnet sich die Variabilität einer verschwiegenen Zufallsgröße ?

Eine Zufallsgröße X mit einer begrenzten oder wenig unbegrenzten Wertemenge

[{displaystyle {mathcal {T}}={x_{1},x_{2},dotsc ,x_{k},dotsc }}]

wird heimlich bezeichnet. Ihre Variabilität berechnet sich danach als gewichteter Betrag der Abweichungsquadrate:

[{displaystyle sigma ^{2}=(x_{1}-mu )^{2}p_{1}+(x_{2}-mu )^{2}p_{2}+ldots +(x_{k}-mu )^{2}p_{k}+ldots =sum _{igeq 1}(x_{i}-mu )^{2}p_{i}}]

Hierbei ist pi = P(X = xi) die Probabilität, dass X die Wertigkeit xi annimmt. Jede potenzielle Erscheinungsform (xi – μ)2 wird in obgenanntem Betrag somit mit der Probabilität ihres Auftritts gewichtet. Eine Menge, die gewichtet ist, mit den Körpergewichten ist die Variabilität bei abgegrenzten Zufallsgrößen somit pi (i = 1, …, n). Der Erwartungswert einer verschwiegenen Zufallsgröße X stellt ebenso einen gewichteten Betrag dar, die durch

[{displaystyle mu =x_{1}p_{1}+x_{2}p_{2}+ldots +x_{k}p_{k}+ldots =sum _{igeq 1}x_{i}p_{i}}]

zugeteilt ist. Über alle Wertigkeiten erstrecken sich die Mengen jedesmal. Die Wertigkeiten kann diese Zufallsgröße aufnehmen. Ein endloser Betrag ergibt sich im Kasus einer überschaubar endlosen Wertemenge. Die Variabilität berechnet sich in Begriffen im verschwiegenem Falle, als Betrag der Erzeugnisse der Probabilitäten der Verwirklichungen der Zufallsgrößen X mit der respektiven quadrierten Differenz.

Wie lautet das Schema für die Rechnung der Variabilität einer kontinuierlich verteilten Zufallsgröße ?

Eine Zufallsgröße X wird als kontinuierlich genannt, wenn ihre Wertemenge eine überabzählbare Anzahl ist. Falls die Zufallsgröße völlig kontinuierlich ist, existiert eine Wahrscheinlichkeitsdichte fx(x) danach als Ergebnis des Satzgefüges von Radon-Nikodým. Die Verteilungsfunktion lässt sich im Falle einer reellwertigen Zufallsgrößen , wie folgt als Integral beschreiben:

[{displaystyle F(t)=int _{-infty }^{t}f(x),mathrm {d} x}]

Für die Variabilität einer reellwertigen Zufallsgröße X mit Dichtefunktion f(x) gilt jetzt

[{displaystyle operatorname {Var} (X)=int _{-infty }^{infty }(x-mathbb {E} [X])^{2}f(x),mathrm {d} xquad };,;wobei;ihr;Erwartungswert;gegeben;ist]
[durch; {displaystyle mathbb {E} [X]=int _{-infty }^{infty }xf(x),mathrm {d} x}]

Als das Integral über das Ergebnis der Abschweifung, die quadriert ist, und der Dichte der Erteilung berechnet sich die Variabilität bei Vorhandensein einer Dichtheit. So über den Platz aller machbaren Erscheinungsformen eingebettet wird es.

Wie wurde die Konzeption der Wechselhaftigkeit von Carl Friedrich Gauß eingebracht ?

Auf Carl Friedrich Gauß geht die Konzeption der Variabilität zurück. Gauß führte den mittleren quadratischen Fehler ein, um zu zeigen, wie sehr ein Punktschätzer um den zu schätzendie Wertigkeit streut. Von Karl Pearson, dem Gründervater der Körpervermessung, aufgenommen wurde diese Vorstellung. Die von Gauß geprägte Bezeichnung mittlerer Irrtümer ersetzte er für dieselbe Vorstellung durch seine Bezeichnung Varianz. Er verwendet diesen im Verbindung in seinen Lehrveranstaltungen. Von Pearson, erstmalig 1894 in seiner Reihe von achtzehn Werken mit dem Werktitel Mathematische Beiträge zur Evolutionstheorie eingebracht wurde der Einsatz des hellenischen Zeichens Sigma für die Varianz. Er schrieb da: nachher wirdseine Varianz. Pearson gründete im Jahre 1901 danach das Magazin Biometrika. Sie wurde eine entscheidende Basis der altenglischen Lehranstalt der Tabelle.

Vom Statistiker Ronald Fisher in seinem 1918 veröffentlichtem Artikel mit der Überschrift Die Wechselbeziehung zwischen Verwandten in der Vermutung der Mendelschen Übertragung vorgestellt wurde der Name Variabilität.

Keine neuartige Symbolfigur führte Fisher ein und Fisher benutzte bloß σ zur Notationsweise der Variabilität. In den anschließenden Jahren entwickelte er ein erbliches Model, das zeigt, dass eine durchgehende Variante zwischen phänotypischen Charakteristiken, die von Biostatistikern ausgemessen wurde, durch den kombinierten Effekt vieler distinktiver Genitive gebildet werden kann und daher das Resultat einer mendelschen Übertragung ist. Fisher formulierte auf diesen Ergebnissen dienlich danach sein grundlegendes Grundgesetz der naturgemäßen Auswahl. Das Grundgesetz beschreibt die Gesetze der Evolutionsgenetik für den Anstieg des Stehvermögens von Lebewesen. Er entwickelte gemeinsam mit Pearson u. a. die Fundamente der Versuchsplanung und der Varianzanalyse. Der Großteil der Methodiken, die biometrisch sind, lässt sich darüber hinaus auf Pearson und Fisher zurückmachen, auf deren Basis Jerzy Neyman und Egon Pearson in den Jahren, die 1930 sind, die generelle Testtheorie entwickelten.

Welche anderen Kennwerte einer Verteilung neben dem Erwartungswert und der Variabilität gibt es?

Durch sogenannte Kennwerte geschildert werden kann jede Zufallsgröße beziehungsweise Verteilung. Die Kennwerte charakterisieren diese Distribution. Die maßgebendsten Kennwerte einer Verteilung sind die Variabilität und der Erwartungswert. Sie werden bei einer Zufallsgröße als Kennzeichnungen wie folgt genannt: X ∼ (µ, σ2). In Ausdrücken: Die Zufallsgröße X folgt einer Distribution mit Erwartungswert  µ und Variabilität σ 2. Für die Falle, dass die Zufallsgröße einer speziellen Erteilung folgt, beispielsweise einer Standardnormalverteilung, wird dies wie folgt vermerkt X ∼ N(0,1). Der Erwartungswert von X ist somit Null und die Variabilität Eins. Neben den Augenblicken zum Beispiel der Zentralwert, die Quantile oder Modalität stellen weitere maßgebliche Kennwerte einer Verteilung dar. Den Kennwerten einer Häufigkeitsverteilung entsprechen die Kennwerte einer Verteilung in der Zahl, die deskriptiv ist.

Welche Kennwert beschreiben eine Verteilung?

Wie lautet die Tschebyscheffsche Ungleichung für Eine Zufallsgröße ?

Die Probabilität lässt sich Mithilfe der Tschebyscheffschen Ungleichung unter Nutzung der existierenden ersten Augenblicke beiden Augenblicke dafür einschätzen, dass die Zufallsgröße X. Ohne aber die Distribution von annimmt Wertigkeiten in entschiedenen Zeitintervallen der realen Zahlengeraden X zu wissen. Sie lautet für Eine Zufallsgröße X mit Erwartungswert μ und Variabilität σ2:

[{displaystyle Pleft(left|X-mu right|geq kright)leq {frac {sigma ^{2}}{k^{2}}}quad ,k>0}]

für alle gleichmäßigen als auch schroffen Austeilungen gilt die Tschebyscheffsche Ungleichung. Keine spezielle Verteilungsform setzt sie somit voraus. Ein Haken der Tschebyscheffschen Ungleichung ist, dass sie lediglich eine grobkörnige Einschätzung liefert.

Wie lautet die Popovicius-Ungleichung für Eine Zufallsgröße ?

Man kann mit Einsatz von Popovicius Ungleichung die Variabilität nach oben einschränken. Sei X eine Zufallsgröße mit Varianz σ2 und m = inf (X),M = sup(X), danach gilt

[{displaystyle sigma ^{2}leq {frac {1}{4}}(M-m)^{2}.}]

Wie lautet die Ungleichung von Cauchy-Schwarz für Zufallsgrößen ?

Falls sagt die Gesetzesform der völligen Variabilität X, Y zwei Zufallsgrößen auf dem identischen Wahrscheinlichkeitsraum sind und die Variabilität von Y endlich ist, danach gilt

[{displaystyle operatorname {Var} (Y)=mathbb {E} left[operatorname {Var} [Ymid X]right]+operatorname {Var} left[mathbb {E} [Ymid X]right]}]

Wie lautet die Ungleichung von Cauchy-Schwarz für zwei Zufallsgrößen ?

Wie lässt sich die Variabilität als einen Augenblick des Vertriebs einer realen Zufallsgröße verstehen ?

Neben dem Erwartungswert der zweite bedeutende Kennwert der Aufteilung einer realen Zufallsgröße ist die Variabilität. Das r-ter wesentlicher Augenblick von X ist μr = E (( X – μ )r). Wenn r = 2. Der bedeutende Augenblick zweiter Anordnung wird danach. μ2 = E (( X – μ )2)

Variabilität der Distribution von X genannt. Aus der Physik stammt das Wort Augenblick original. Wenn man die beliebigen Sachwerte als Punktmassen mit den Massen auf der realen Zahlengeraden interpretiert, danach erhält man eine physikalische Auslegung des Erwartungswertes: der erste Zeitpunkt, der Erwartungswert, stellt danach den physikalischen Fokus beziehungsweise Massenschwerpunkt der so entstehenden Körperform dar. Die Variabilität kann danach als Massenträgheitsmoment des Massesystems bezüglich der Drehachse um den Fokus angesehen werden. Die Variabilität ist im Unterschied zum Erwartungswert ein Maßstab für die Ausbreitung der Wahrscheinlichkeitsmasse um ihren Erwartungswert. Der Erwartungswert balanciert somit die Wahrscheinlichkeitsmasse.

Wie lässt sich die Auslegung der Variabilität als mittlere quadrierte Distanz erläutern ?

Die Auslegung der Variabilität einer Zufallsgröße als mittlere quadrierte Distanz lässt sich wie folgt explizieren: die Kluft zwischen zwei Stellen x1 und x2. ist auf der tatsächlichen Zahlengeraden zugeteilt durch

[{displaystyle d={sqrt {(x_{1}-x_{2})^{2}}}}]

Wenn man jetzt definiert, dass eine Stelle die Zufallsgröße X ist und der andere μ = E(X), danach gilt

[{displaystyle d={sqrt {(X-mu )^{2}}}}]

, und die quadrierte Distanz lautet (X – μ)2. Infolgedessen wird E((X – μ)2) als die mittlere quadrierte Distanz zwischen der Verwirklichung der Zufallsgrößen X und dem Erwartungswert E(X) interpretiert, wenn der Zufallsversuch endlos häufig repetiert wird.

Wie kann man die Variabilität einer konstanten Zufallsgröße als Maßstab für Ungewissheit betrachten ?

Wie deterministisch eine Erscheinung, die betrachtet ist, ist, beschreibt die Variabilität außerdem den Umfang einer Wahrscheinlichkeitsfunktion. Eine zufällige Lage liegt bei einer weiten Variabilität vielmehr vor und bei einer geringfügigen Variabilität vielmehr eine Lage, die deterministisch ist. Eine Lage, die komplett deterministisch ist, liegt Im Sonderfall einer Variabilität von Null vor. Wenn die Zufallsgröße X ist die Variabilität exakt demnächst Null mit absoluter Probabilität lediglich einen bestimmen Stellenwert, gleich den Erwartungswert, annimmt. wenn daher P(X = μ) = 1 gilt. Solch Eine Zufallsgröße ist mit Wahrscheinlichkeit Eins konstant und kann in diesem Sinn als deterministisch bezeichnet werden. Da für Eine Zufallsgröße mit dieser Eigenschaft P(X = x) = 0 für alle x ≠ μ gilt, wird deren Distribution mitunter außerdem als andersartig genannt. Eine Verteilung mit P(X = μ) = 1 für eine wirkliche Anzahl μ heißt korrupte Dirac-Verteilung oder Verteilung.

Die Unterschiedlichkeit zwischen einem Festwert μ ∈ R, die einer realen Zufallsgröße Xμ : Ω → R mit der Eigenheit Xμ(ω) = 1 für alle ω ∈ Ω entspricht, und einer Zufallsgröße X mit der Eigenheit P(X = μ) = 1 ist, dass im zweiter Falle realisierte Wertigkeiten der Zufallsgrößen machbar sind, die von μ unterschiedlich sind, die aber zusammen die Probabilität Null haben, das gilt demnach P(X = μ) = 1. In beiden Fällen hat die Varianz die Wertigkeit Null.

Für konstante Zufallsgrößen gilt im Unterschied zu diskontinuierlichen Zufallsgrößen immer P(X = x) = 0 für jedes x ∈ R. Die Variabilität beschreibt im kontinuierlichem Kasus den Umfang einer Dichte. Ein Maßstab für die Ungewissheit ist die Weite dagegen. Die Ungewissheit ist mit einer Zufallsgröße gekoppelt. Jemals spärlicher die Dichte ist, umso exakter kann die Wertigkeit von X vorausgesagt werden.

Welche Merkmale machen die Variabilität zu einem maßgeblichen Streuungsparameter?

Der Versatz weist eine Vielzahl vorteilhafter Eigenheiten auf, welche die Variabilität zum signifikantestem Streuungsparameter macht:

Wie lässt sich der Varianzwert mithilfe des Satzgefüges von Steiner errechnen ?

Das zufällige Pendant zum Steinerschem Satzgefüge zur Ausrechnung von Massenträgheitsmomenten ist der Verschiebungssatz. Mit gilt es E(X) = μ und für unbeschränktes reelles α:

[{displaystyle mathbb {E} left((X-a)^{2}right)=operatorname {Var} (X)+(mu -a)^{2}}]

Die mittlere viereckige Abschweifung von h. d. X bzgl. α ist ähnlich der Variabilität plus dem Viereck der Verlegung μ − α.

Für unbeschränktes wirkliches ergibt sich aus dem Verschiebungssatz obendrein α:

[{displaystyle operatorname {Var} (X)leq mathbb {E} left((X-a)^{2}right)quad };bzw.] [{displaystyle quad operatorname {Var} (X)=min _{ain R}mathbb {E} left((X-a)^{2}right)}]

Für α = 0 erhält man als wohlbekannteste Ausführung des Verschiebungssatzes.

[{displaystyle operatorname {Var} (X)=mathbb {E} left(X^{2}right)-mathbb {E} left(Xright)^{2}=mathbb {E} left(X^{2}right)-mu ^{2}}]

Als nicht-zentralen Augenblick formulieren lässt sich die Variabilität als zentrischer Augenblick, auf den Erwartungswert bezogener Augenblick somit außerdem.

Dass folgt aus dem Verschiebungssatz wegen der Nichtnegativitätsbedingung der Variabilität.

[{displaystyle mathbb {E} left(X^{2}right)-left(mathbb {E} (X)right)^{2}geq 0};;somit;ist] [{displaystyle mathbb {E} left(X^{2}right)geq left(mathbb {E} (X)right)^{2}}]

Ein Sonderfall der Ungleichung, die jensensch ist, für Erwartungswerte ist dieses Ergebnis. Da der dazu erforderliche Erwartungswert von beschleunigt der Verschiebungssatz die Ausrechnung der Variabilität X2 gemeinsam mit μ formiert werden kann, während ansonsten μ schon geläufig sein muss – genau für verschwiegene beziehungsweise konstante Zufallsgrößen liefert er:

Falls X diskret:

[{displaystyle sigma ^{2}=left(sum _{igeq 1}x_{i}^{2}p_{i}right)-left(sum _{igeq 1}x_{i}p_{i}right)^{2}}]

Falls X stetig:

[{displaystyle sigma ^{2}=int _{-infty }^{infty }x^{2}f(x),mathrm {d} x-left(int _{-infty }^{infty }xf(x),mathrm {d} xright)^{2}}]

Wie kann man Eine Zufallsgröße standardisieren, um eine Varianz von 1 und einen Erwartungswert von 0 zu erhalten?

Für zwei Festwerte α , b ∈ R gilt:

  • Die Variabilität eines Festwertes ist Null, da Festwerte per Begriffsbestimmung nicht willkürlich sind und daher außerdem nicht streuen: Var(α) ⁡ = 0;Var(b) ⁡ = 0
  • Translationsinvarianz: Für ergänzende Festwerte gilt
    Var(X + b) = E((X+b-μ+b)2) = Var(X) . Dass eine Verlegung der Zufallsgrößen um eine unveränderliche Summe keine Wirkung auf deren Ausbreitung hat, bedeutet dies.
  • Multiplikative Festwerte haben im Unterschied zu ergänzenden Festwerten eine Wirkung auf die Skalierung der Variabilität. Die Variabilität wird bei multiplikativen Festwerten mit der quadrierten der Festwerte, daher α2, skaliert. Dies kann wie folgt aufgezeigt werden:
[{displaystyle operatorname {Var} (aX)=mathbb {E} left((aX-amu )^{2}right)=mathbb {E} left(a^{2}(X-mu )^{2}right)=a^{2}operatorname {Var} (X)}]

Die Eigenart der Proportionalität des Erwartungswertes wurde hierbei verwendet. Die Varianzbildung einer stetigen transformierten Zufallsgröße ergibt zusammengefasst Y = aX + b:

[{displaystyle operatorname {Var} (Y)=operatorname {Var} (aX+b)=a^{2}operatorname {Var} (X)}]

Speziell für α = -1 folgt Var(-X) = Var(X), das heißt, das Zeichen der Variabilität ändert sich nicht, wenn sich das Zeichen der Zufallsgrößen ändert.

Jede Zufallsvariable kann durch Zentrierung und anschließende Normierung, genannt Standardisierung, in Eine Zufallsgröße Z überführt werden. Eine gradlinige Umwandlung ist diese Standardisierung. Die so standardisierte Zufallsgröße Z weist eine Variabilität von 1 und einen Erwartungswert von 0 auf.

Wie wirkt sich eine geradlinige Umwandlung auf die Varianz aus ?

Stets in Quadrateinheiten ausgewiesen wird die Variabilität einer Zufallsgröße. Weil quadrierte Units – wie beispielsweise cm2 ist dies schwierig. Sie kommen auf diesem Verlauf zustande.

Im vorliegenden Exempel ist die Auslegung als Flächenmaßeinheit unerlaubt. Die Varianz wird um die unveränderte Maßeinheit wie die Zufallsgröße zu erlangen daher statt der Variabilität i. d. R. benutzt. Die identische Maßeinheit wie die Zufallsgröße selber hat sie und sie misst daher, bildhaft ausgesprochen, mit dem identischen Maßstab.

Die wünschenswerte Wurzel aus der Variabilität ist die Varianz.

[{displaystyle operatorname {SD} (X):=+{sqrt {operatorname {Var} (X)}}=+{sqrt {mathbb {E} left((X-mu )^{2}right)}}}]

Als wird sie SD(X) (sporadisch ebenfalls als D(X)), σ X, oder schlicht als σ notiert. Weil sie, im Gegensatz zur Variabilität, den Erfordernissen an ein Risikomaß genügt, eignet sich außerdem die Varianz zur Quantifikation von Ungewissheit bei Entscheiden unter Gefahr.

Gerade Probabilitäten können bei einigen Verteilungen, speziell der Normalverteilung aus der Varianz errechnet werden. Cirka 68 % der Wertigkeiten befinden sich so bei der Normalverteilung stets im Dauer von dem Umfang von zwei Streuungen um den Erwartungswert. Exempel hierfür ist die Gestalt: Sie ist für ein Land und Geschlechtsteil ungefähr normalverteilt, so dass zum Beispiel in Deutschland 2006 cirka 68 % aller Herren ungefähr zwischen 171 und 186 cm weit waren.

Für jeden Festwert gilt für die Varianz c, SD(c). Die Rechenregel gilt im Unterschied zur Variabilität für die Varianz SD ⁡(aX +b) = |a|SD(X) mit a , b ∈ R Nicht mit dem Rechteck wird die Varianz im Unterschied zur Variabilität, heißt das α2 der Festwerte skaliert. Für gilt speziell α > 0, SD ⁡(aX +b) = a • SD(X).

Wie lautet die Cauchy-Schwarzsche Ungleichung ?

Die Kovarianz misst im Unterschied zur Variabilität die einheitliche Varianz von zwei Zufallsgrößen. Die Variabilität misst bloß die Varianz der Zufallsgröße, die betrachtet ist. Die Kovarianz einer Zufallsgröße mit selber ist sich die Variabilität demnach COV(X,X) = Var(X). Gerade aus der Begriffsbestimmung der Kovarianz und Variabilität folgt diese Relation. Die Kovarianz zwischen X und Y wird ebenfalls mit σ X , Y abgekürzt. Außerdem gilt, da die Kovarianz eine günstig semidefinite Bilinearform ist, die Cauchy-Schwarzsche Ungleichung:

[{displaystyle (operatorname {Cov} (X,Y))^{2}leq operatorname {Var} (X)operatorname {Var} (Y)}]

Zu den bedeutendsten in der Mathe gehört diese Ungleichung und diese Ungleichung findet vor allem in der stetigen Buchstabenrechnung Verwendung.

Wie lautet die Grundrechnung für die Variabilität des Erzeugnisses zweier selbstständiger Zufallsgrößen ?

Für die Variabilität einer willkürlichen Menge von Zufallsgrößen

[{displaystyle X=a_{1}X_{1}+dotsb +a_{n}X_{n}}]

gilt generell:

[{displaystyle {begin{aligned}operatorname {Var} left(Xright)&=a_{1}^{2}operatorname {Var} left(X_{1}right)+dotsb +a_{n}^{2}operatorname {Var} left(X_{n}right)+2a_{1}a_{2}operatorname {Cov} left(X_{1},X_{2}right)+2a_{1}a_{3}operatorname {Cov} left(X_{1},X_{3}right)+dotsb &=sum nolimits _{i=1}^{n}a_{i}^{2}operatorname {Var} (X_{i})+2sum nolimits _{i<j}a_{i}a_{j}operatorname {Cov} (X_{i},X_{j})end{aligned}}}]

Hierbei bezeichnet COV(Xi,Xj) die Kovarianz der Zufallsgrößen Xi und Xj. Das Merkmal wurde COV(Xi,Xj) = Var(Xi) verwendet. Berücksichtigt man das Verhalten der Varianz bei linearen Transformationen, danach gilt für die Varianz der Linearkombination, beziehungsweise der gewichteten Summe, zweier Zufallsvariablen:

[{displaystyle operatorname {Var} (aX+bY)=a^{2}operatorname {Var} (X)+b^{2}operatorname {Var} (Y)+2aboperatorname {Cov} (X,Y)}]

Speziell für zwei Zufallsgrößen X, Y und a = b = 1 ergibt sich zum Beispiel

[{displaystyle operatorname {Var} (X+Y)=operatorname {Var} (X)+operatorname {Var} (Y)+2operatorname {Cov} (X,Y)}]

Dass die Varianz der Gesamtheit zweier Zufallsgrößen der Gesamtheit der unabhängigen Varianzen und dem Zweifachen der universalen Varianz der Zufallsgrößen, die beide sind, entspricht, bedeutet dies.

Ein zusätzlicher Anlass, warum die Variabilität anderen Streuungsparametern bevorzugt wird, ist die vorteilhafte Eigenheit, dass die Variabilität der Gesamtheit selbständiger Zufallsgrößen der Menge der Variabilitäten entspricht:

[{displaystyle operatorname {Var} (Xpm Y)=operatorname {Var} (X)+operatorname {Var} (Y)}]

Daraus, dass bei unbeeinflussten Zufallsgrößen resultiert COV(X,X) = 0 gilt. Diese Gleichung lässt sich außerdem generalisieren: Wenn dies {X1, …, Xn} paarig unkorrelierte Zufallsgrößen sind, gilt

[{displaystyle operatorname {Var} left(X_{1}+dotsb +X_{n}right)=operatorname {Var} (X_{1})+dotsb +operatorname {Var} (X_{n})}]

oder üblicher mit willkürlichen Festwerten a1, …, an

[{displaystyle {begin{aligned}operatorname {Var} left(a_{1}X_{1}+dotsb +a_{n}X_{n}right)=a_{1}^{2}operatorname {Var} left(X_{1}right)+dotsb +a_{n}^{2}operatorname {Var} left(X_{n}right)end{aligned}}}]

1853 vom französischen Mathematiker Irénée-Jules Bienaymé herausgefunden wurde dieses Ergebnis und dieses Ergebnis wird daher außerdem als Formel von Bienaymé genannt. Sie gilt speziell danach, wenn die Zufallsgrößen selbstständig sind, denn aus Selbstständigkeit folgt Unkorreliertheit. Wenn alle Zufallsgrößen die identische Variabilität σ2 haben, bedeutet dies für die Varianzbildung des Stichprobenmittels:

[{displaystyle operatorname {Var} left({overline {X}}right)=operatorname {Var} left({frac {1}{n}}sum _{i=1}^{n}X_{i}right)={frac {1}{n^{2}}}sum _{i=1}^{n}operatorname {Var} left(X_{i}right)={frac {sigma ^{2}}{n}}}]

Dass die Variabilität des Stichprobenmittels sinkt, kann man feststellen wenn die Stichprobengröße n steigt. Bei der Begriffsbestimmung des Standardfehlers des Stichprobenmittels verwendet wird diese Rechnung für die Variabilität des Stichprobenmittels. Der Standardfehler wird im zentrischem Grenzwertsatz eingesetzt.

Zwei Zufallsgrößen sind X und Y. Die Variabilität ihres Erzeugnisses ist danach erteilt durch.

[{displaystyle {begin{aligned}operatorname {Var} (XY)&=(mathbb {E} (X))^{2}operatorname {Var} (Y)+(mathbb {E} (Y))^{2}operatorname {Var} (X)+operatorname {Var} (X)operatorname {Var} (Y)end{aligned}}}]

Wie lautet die Blackwell-Girshick-Gleichung ?

Ist Y eine zusammengesetzte Zufallsgröße, d. h. sind N, X1, X2 … sind selbständige Zufallsgrößen. Xi gleichartig aufgeteilt und ist N auf N0 definiert, so lässt sich Y nachbilden als

[{displaystyle Y:=sum nolimits _{i=1}^{N}X_{i}}]

Die zweiten Augenblicke von existieren N, X1, X2, …, so gilt für die zusammengesetzte Zufallsgröße:

[{displaystyle operatorname {Var} (Y)=operatorname {Var} (N)left(mathbb {E} left(X_{1}right)right)^{2}+mathbb {E} (N)operatorname {Var} left(X_{1}right)}]

Ebenfalls als Blackwell-Girshick-Gleichung renommiert ist diese Erklärung und diese Erklärung wird zum Beispiel in der Schadensversicherungsmathematik verwendet.

Wie lässt sich die Variabilität mithilfe der momenterzeugenden Funktionalität errechnen ?

Augenblicke wie die Variabilität lassen sich Mithilfe der Funktionalität, die momenterzeugend ist, oft leichter errechnen. Beschrieben als Erwartungswert der Funktionalität ist die Funktionalität, die momenterzeugend ist.

e t X {displaystyle e^{tX}}

. Dahin für die momenterzeugende Funktionalität

E {displaystyle mathbb {E} left}

der Bezug

MX=E {displaystyle M_{X}^{}=mathbb {E} left}

gilt, lässt sich die Variabilität, durch den Verschiebungssatz, damit auf nachfolgendes Gepräge errechnen:

Var⁡=E−(E)2=MX″−(MX′)2 {displaystyle operatorname {Var}=mathbb {E} left-(mathbb {E})^{2}=M_{X}“-left(M_{X}’right)^{2}}

.

Hierbei ist

M X {displaystyle M_{X}}

die momenterzeugende Funktionalität und

M X {displaystyle M_{X}^{}}

die

n {displaystyle n}

-te Herleitung dieser. Die kumulantenerzeugende Funktionalität einer Zufallsgröße ergibt sich als Logarithmus der momenterzeugenden Funktionalität und ist festgelegt als:

gX:=ln⁡E {displaystyle g_{X}:=ln mathbb {E}}

.

Leitet man sie zweifach ab und wertet sie an dem Punkt Null aus, so erhält man für die Variabilität

g X ″ | t = 0 = σ 2 {displaystyle g“_{X}{bigg |}_{t=0}=sigma ^{2}}

. Die Standardabweichung ist die zweite Kumulante somit.

Wie lässt sich die Variabilität mithilfe der wahrscheinlichkeitserzeugenden Funktionalität errechnen ?

Die Variabilität einer Zufallsgröße

X {displaystyle X}

lässt sich ebenso mit Mithilfe ihrer kennzeichnenden Funktionalität

φ X = E {displaystyle varphi _{X}=mathbb {E} left}

darstellen. Wegen

E=φXik,k=1,2,… {displaystyle mathbb {E}={frac {varphi _{X}^{}}{mathrm {i} ^{k}}}.,k=1,2,dots }

und

( E ) 2 = ( φ X ′ i ) 2 {displaystyle (mathbb {E})^{2}=left({frac {varphi _{X}‘}{mathrm {i} }}right)^{2}}

folgt gleich mit dem Verschiebungssatz:

Var⁡=E−(E)2=φX″i2−(φX′i)2 {displaystyle operatorname {Var}=mathbb {E}-(mathbb {E})^{2}={frac {varphi _{X}“}{mathrm {i} ^{2}}}-left({frac {varphi _{X}‘}{mathrm {i} }}right)^{2}}

.

Zudem mit der wahrscheinlichkeitserzeugenden Funktionalität

m X = E {displaystyle m_{X}=mathbb {E}}

, die in Verhältnis zur kennzeichnender Funktionalität steht lässt sich für verschwiegene

X {displaystyle X}

die Variabilität errechnen. Für die Variabilität gilt je danach.

σ 2 = lim t ↑ 1 ( m X ″ + m X ′ − m X ′ 2 ) {displaystyle sigma ^{2}=lim _{tuparrow 1}left(m_{X}“+m_{X}‘-m_{X}’^{2}right)}

, falls der linksseitige Schwellenwert existiert.

Wie lässt sich die Variabilität einer gleichverteilten Zufallsgröße errechnen ?

Im Kasus einer verschwiegenen Zufallsgröße

X {displaystyle X}

mit überschaubar begrenztem Überbringer

T = { x 1 , x 2 , … , x n } ⊂ R {displaystyle {mathcal {T}}={x_{1},x_{2},dotsc ,x_{n}}subset mathbb {R} }

Die Variabilität der Zufallsgröße ergibt sich.

Var ⁡ {displaystyle operatorname {Var}}

als

Var⁡=p12+p22+⋯+pn2 {displaystyle operatorname {Var}=p_{1}^{2}+p_{2}^{2}+dotsb +p_{n}left^{2}}

.

Hierbei ist

p i = P {displaystyle p_{i}=Pleft}

die Probabilität, dass

X {displaystyle X}

die Wertigkeit

x i {displaystyle x_{i}}

annimmt. Als eine gewichtete Menge der Wertigkeiten kann diese Variabilität.

2 , 2 , … , 2 {displaystyle left^{2},left^{2},dotsc ,left^{2}}

eingeschätzt mit den Probabilitäten

p 1 , p 2 , … , p n {displaystyle p_{1},p_{2},dotsc ,p_{n}}

erachtet werden.

Falls

X {displaystyle X}

gleichverteilt auf

{ x 1 , x 2 , … , x n } ⊂ R {displaystyle {x_{1},x_{2},dotsc ,x_{n}}subset mathbb {R} }

ist, gilt für den Erwartungswert, dass er identisch der arithmetischen Maßnahme ist:

μ=E⁡=1n=1n∑i=1nxi=x¯ {displaystyle mu =operatorname {E}={frac {1}{n}}left={frac {1}{n}}sum _{i=1}^{n}{x_{i}}={overline {x}}}

Infolgedessen wird die Varianz

Var ⁡ = p 1 2 + p 2 2 + ⋯ + p n 2 {displaystyle operatorname {Var}=p_{1}left^{2}+p_{2}left^{2}+dotsb +p_{n}left^{2}}

zum arithmetischen Mittelmaß der Wertigkeiten

2 {displaystyle left^{2}}

:

σ2=Var⁡=1n(2+2+⋯+2)=1n∑i=1n2=s2 {displaystyle sigma ^{2}=operatorname {Var}={frac {1}{n}}left(left^{2}+left^{2}+dotsb +left^{2}right)={frac {1}{n}}sum _{i=1}^{n}{left^{2}}=s^{2}}

.

Die mittlere viereckige Abschweifung vom Durchschnittswert beziehungsweise die Stichprobenvarianz h. d.. Bei Gleichmaß ist die Variabilität geradlinig.

s 2 {displaystyle s^{2}}

.

Die Normalverteilung hat welche Variabilität ?

In der Wahrscheinlichkeitsrechnung gibt es eine Vielfalt von Distributionen, die großteil eine verschiedene Variabilität aufweisen und häufig in Bezug zueinander stehen. Da die Normalverteilung in der Zahl eine herausragende Position einnimmt, ist die Variabilität der Normalverteilung von beachtlicher Wichtigkeit. Die spezielle Wichtigkeit der Normalverteilung beruht unter anderem auf dem zentrischen Grenzwertsatz, dem zufolge Distributionen, die durch Überschneidung einer riesigen Anzahl von selbstständigen Einwirkungen entstehen, unter dünnen Bedingungen ungefähr normalverteilt sind. Eine Palette relevanter Variantenreichtümer ist in folgendem Tableau zusammengefasst:

Die Normalverteilung in der Zahl hat welche Relevanz ?

Welche wichtigen Varianzen werden in der Stochastik untersucht?

Wie lässt sich die Variabilität einer Binomialverteilung errechnen ?

7-mal zugeworfen wird ein Münzgeld. Wenn die diskontinuierliche Zufallsgröße

X {displaystyle X}

die Zahl der Spielwürfel zählt, mit denen Anzahl abgeworfen wird, ergibt sich für

X {displaystyle X}

die Binomialverteilung

B = { 1 2 i 7 − i falls i ∈ { 0 , 1 , 2 , 3 , 4 , 5 , 6 , 7 } 0 sonst. {displaystyle B={begin{cases}{binom {7}{k}}{tfrac {1}{2}}^{i}^{7-i}&.{text{falls}}quad iin left{0,1,2,3,4,5,6,7right}&.{text{sonst.}}end{cases}}}

mit

n = 7 {displaystyle n=7}

und

p = 1 2 {displaystyle p={frac {1}{2}}}

. Die Wertigkeiten und ihre Probabilitäten lassen sich in nachfolgender Übersicht zusammenführen:

Der Erwartungswert beträgt

μ=np=7⋅12=3,5 {displaystyle {color {BrickRed}mu }=np=7cdot {frac {1}{2}}={color {BrickRed}3{,}5}}

.

Demnach dargeboten durch ist die Variabilität.

σ2=∑i=072pi=2⋅1128+2⋅7128+2⋅21128+2⋅35128+2⋅35128+2⋅21128+2⋅7128+2⋅1128=74=1,75 {displaystyle {begin{aligned}sigma ^{2}&.=sum _{i=0}^{7}^{2}p_{i}=^{2}cdot {frac {1}{128}}+^{2}cdot {frac {7}{128}}+^{2}cdot {frac {21}{128}}+^{2}cdot {frac {35}{128}}&.quad +^{2}cdot {frac {35}{128}}+^{2}cdot {frac {21}{128}}+^{2}cdot {frac {7}{128}}+^{2}cdot {frac {1}{128}}={frac {7}{4}}=1{,}75end{aligned}}}

Mit dem Verschiebungssatz erhält man auch die identische Wertigkeit für die Variabilität:

σ2=−2=02⋅1128+12⋅7128+22⋅21128+32⋅35128+42⋅35128+52⋅21128+62⋅7128+72⋅1128−3,52=1,75 {displaystyle sigma ^{2}=left-left^{2}=0^{2}cdot {frac {1}{128}}+1^{2}cdot {frac {7}{128}}+2^{2}cdot {frac {21}{128}}+3^{2}cdot {frac {35}{128}}+4^{2}cdot {frac {35}{128}}+5^{2}cdot {frac {21}{128}}+6^{2}cdot {frac {7}{128}}+7^{2}cdot {frac {1}{128}}-{color {BrickRed}3{,}5}^{2}=1{,}75}

.

Für die Varianz ergibt sich damit:

σ=σ2=1,75≈1,323 {displaystyle sigma ={sqrt {sigma ^{2}}}={sqrt {1{,}75}}approx 1{.}323}

.

Die Erteilung, die hypergeometrisch ist, hat welche Relevanz in der Wahrscheinlichkeitsrechnung ?

Von den 52 Karten 5 Community Cards werden bei der Pokervariante Texas Hold ’ em offenbart. Wenn die diskontinuierliche Zufallsgröße

X {displaystyle X}

die Zahl der Asse zählt, die offenbart werden, ergibt sich für

X {displaystyle X}

die hypergeometrische Austeilung

h := P = {displaystyle h:=P={frac {displaystyle {4 choose k}{52-4 choose 5-k}}{displaystyle {52 choose 5}}}}

mit

N = 52 {displaystyle N=52}

Spielkarten,

M = 4 {displaystyle M=4}

Assen und

n = 5 {displaystyle n=5}

Community Cards. Die Wertigkeiten und ihre Probabilitäten lassen sich in nachfolgender Übersicht zusammenführen:

Der Erwartungswert beträgt

μ=n⋅MN=5⋅452=513 {displaystyle {color {BrickRed}mu }=ncdot {frac {M}{N}}=5cdot {frac {4}{52}}={color {BrickRed}{frac {5}{13}}}}

.

Demnach dargeboten durch ist die Variabilität.

σ2=∑i=042pi=2⋅17123042598960+2⋅7783202598960+2⋅1037762598960+2⋅45122598960+2⋅482598960≈0,327 {displaystyle sigma ^{2}=sum _{i=0}^{4}^{2}p_{i}=left^{2}cdot {frac {1712304}{2598960}}+left^{2}cdot {frac {778320}{2598960}}+left^{2}cdot {frac {103776}{2598960}}+left^{2}cdot {frac {4512}{2598960}}+left^{2}cdot {frac {48}{2598960}}approx 0{.}327}

Für die Varianz ergibt sich damit:

σ=σ2≈0,327≈0,572 {displaystyle sigma ={sqrt {sigma ^{2}}}approx {sqrt {0{.}327}}approx 0{.}572}

.

Wie lässt sich die Variabilität einer kontinuierlichen Zufallsgröße errechnen ?

Die Dichte habe eine konstante Zufallsgröße.

f={1x falls 1≤x≤e0 sonst. {displaystyle f={begin{cases}{frac {1}{x}}&.{text{falls}}quad 1leq xleq e&.{text{sonst.}}end{cases}}}

,

mit dem Erwartungswert von

X {displaystyle X}

μ=∫1ex⋅1xdx=e−1 {displaystyle {color {BrickRed}mu }=int _{1}^{e}xcdot {frac {1}{x}},mathrm {d} x=color {BrickRed}{e-1}}

und dem Erwartungswert von

X 2 {displaystyle X^{2}}

E=∫−∞∞x2⋅fdx=∫1ex2⋅1xdx=1e=e22−12 {displaystyle mathbb {E} {bigl}=int _{-infty }^{infty }x^{2}cdot f,mathrm {d} x=int _{1}^{e}x^{2}cdot {frac {1}{x}},mathrm {d} x=left_{1}^{e}={frac {e^{2}}{2}}-{frac {1}{2}}}

.

Die Variabilität dieser Dichte berechnet sich mit Mithilfe des Verschiebungssatzes wie folgt:

σ2=∫−∞∞x2fdx−μ2=e22−12−2≈0,242 {displaystyle sigma ^{2}=int _{-infty }^{infty }x^{2}f,mathrm {d} x-{color {BrickRed}mu }^{2}={frac {e^{2}}{2}}-{frac {1}{2}}-{color {BrickRed}}^{2}approx 0{.}242}

.

Wie kann man anhand der Stichprobenvarianz eine Schätzung für Die Variabilität einer Zufallsgröße erhalten?

Seien

X 1 , … , X n {displaystyle X_{1},dots ,X_{n}}

reale selbstständig und gleichartig verteilte Zufallsgrößen mit dem Erwartungswert

E = b {displaystyle mathbb {E}=b}

und der begrenzten Variabilität

σ 2 = Var ⁡ {displaystyle sigma ^{2}=operatorname {Var}}

. Ein Schätzer für den Erwartungswert

b {displaystyle b}

stellt das Stichprobenmittel

X ¯ n {displaystyle {overline {X}}_{n}}

dar, da nach der Gesetzesform der riesigen Nummern gilt:

X¯n⟶pb {displaystyle {overline {X}}_{n}.{overset {p}{longrightarrow }}.b}

.

Ein Schätzer wird im Folgenden für die Variabilität.

σ 2 {displaystyle sigma ^{2}}

gesucht. Ausgehend von

X 1 , … , X n {displaystyle X_{1},dots ,X_{n}}

Man definiert sich die Zufallsgrößen.

Y i := 2 , i = 1 , … , n {displaystyle Y_{i}:=^{2},quad i=1,dots ,n}

. Selbstständig und gleichartig zugeteilt mit dem Erwartungswert sind diese.

E = E 2 = σ 2 {displaystyle mathbb {E}=mathbb {E}^{2}=sigma ^{2}}

. Ist

Y {displaystyle Y}

jetzt viereckig integrierbar, danach ist die schlechte Gesetzesform der weiten Nummern benutzbar, und es gilt:

Y¯n=1n∑i=1n2⟶pσ2 {displaystyle {overline {Y}}_{n}={frac {1}{n}}sum _{i=1}^{n}^{2}.{overset {p}{longrightarrow }}.sigma ^{2}}

.

Wenn man jetzt

b {displaystyle b}

durch

X ¯ n {displaystyle {overline {X}}_{n}}

ersetzt, liefert dies die sogenannte Stichprobenvarianz. Die Stichprobenvarianz stellt aus jener Ursache wie oben nachgewiesen.

S~n=1n∑i=1n2 {displaystyle {widetilde {S}}_{n}={frac {1}{n}}sum _{i=1}^{n}^{2}}

eine induktive Abgeltung der Variabilität im zufälligem Sinngehalt dar.

Wie unterscheidet man die zwingende Variabilität von der abhängigen Variabilität ?

Analog zu bedingten Erwartungswerten lassen sich beim Vorliegen von Zusatzinformationen, wie beispielsweise die Wertigkeit en einer weiteren Zufallsvariable, bedingte Varianzen bedingter Verteilungen betrachten. sie seien

X {displaystyle X}

und

Y {displaystyle Y}

Die Variabilität von heißt danach.

X {displaystyle X}

, die auf

Y = y {displaystyle Y=y}

konditioniert ist

Var⁡=E((X−E)2∣Y=y) {displaystyle operatorname {Var}=mathbb {E} {bigl (}(X-mathbb {E})^{2}mid Y=y{bigr )}}

die abhängige Variabilität von

X {displaystyle X}

gegeben

Y = y {displaystyle Y=y}

. Um die übliche Variabilität

Var ⁡ {displaystyle operatorname {Var}}

kräftiger von der abhängigen Variabilität

Var ⁡ {displaystyle operatorname {Var}}

Man spricht zu differenzieren bei dem üblichen Versatz außerdem von der zwingenden Variabilität.

Wie lässt sich die Variabilität zweier Zufallsgrößen errechnen ?

Wie kann man anhand der Kovarianzmatrix die Wirksamkeit eines Parameterschätzers bewerten ?

Im Kasus eines realen Zufallsvektors

X = ⊤ {displaystyle {boldsymbol {X}}=^{top }}

mit dem dazugehörigen Erwartungswertvektor

μ = ⊤ {displaystyle {boldsymbol {mu }}=^{top }}

verallgemeinert sich die Variabilität beziehungsweise Kovarianz zu der gleichartigen Varianz-Kovarianzmatrix des Zufallsvektors:

Cov⁡=E(⊤) {displaystyle operatorname {Cov}=mathbb {E} left(^{top }right)}

.

Die Eintragung der

i {displaystyle i}

-ten Linie und

j {displaystyle j}

-ten Spalt der Varianz-Kovarianzmatrix

Cov ⁡ {displaystyle operatorname {Cov}}

Die Kovarianz ist.

Cov ⁡ , i ≠ j {displaystyle operatorname {Cov},.ineq j}

der Zufallsgrößen

X i {displaystyle X_{i}}

und

X j {displaystyle X_{j}}

Die Variabilitäten stehen und in der Körperdiagonale.

Cov ⁡ = Var ⁡ {displaystyle operatorname {Cov}=operatorname {Var}}

. Da die Kovarianzen einen Maßstab für das Wechselverhältnis zwischen Zufallsgrößen darstellen und die Variabilitäten bloß einen Maßstab für die Varianz, enthält die Varianz-Kovarianzmatrix Angaben über die Streubreite und Zusammenhänge zwischen all seinen Bestandteilen. Da die Variabilitäten und Kovarianzen per Festlegung immer nicht-negativ sind, gilt ähnlich für die Varianz-Kovarianzmatrix, dass sie günstig semidefinit ist. Bei der Bewertung von Schätzern dient die Varianz-Kovarianzmatrix als Effizienzkriterium. Im Allgemeinen gilt, dass sich die Wirksamkeit eines Parameterschätzers anhand der Größenordnung seiner Varianz-Kovarianzmatrix vermessen lässt. Es gilt: jeweils geringer die Varianz-Kovarianzmatrix, umso weiter die Wirksamkeit des Schätzers.

Wie lässt sich die Variabilität einer Linearkombination von Zufallsgrößen errechnen ?

es sei

X {displaystyle {boldsymbol {X}}}

ein Spaltenvektor von

p {displaystyle p}

Zufallsvariablen

X 1 , … , X p {displaystyle X_{1},ldots ,X_{p}}

, und

a {displaystyle {boldsymbol {a}}}

ein Spaltenvektor bestehend aus

p {displaystyle p}

Skalaren

a 1 , … , a p {displaystyle a_{1},ldots ,a_{p}}

. Dass bedeutet dies.

a ⊤ X {displaystyle {boldsymbol {a}}^{top }{boldsymbol {X}}}

Wobei ist eine Linearkombination dieser Zufallsgrößen.

a ⊤ {displaystyle {boldsymbol {a}}^{top }}

die Transponierte von

a {displaystyle {boldsymbol {a}}}

bezeichnet. Sei

Σ X = {displaystyle {boldsymbol {Sigma }}_{boldsymbol {X}}=}

die Varianz-Kovarianzmatrix von

X {displaystyle {boldsymbol {X}}}

. Die Variabilität von

a ⊤ X {displaystyle {boldsymbol {a}}^{top }{boldsymbol {X}}}

ist danach zugeteilt durch:

Var⁡=a⊤ΣXa=∑i=1p∑j=1paiajσij {displaystyle operatorname {Var}={boldsymbol {a}}^{top }{boldsymbol {Sigma }}_{boldsymbol {X}}{boldsymbol {a}}=sum _{i=1}^{p}sum _{j=1}^{p}a_{i}a_{j}sigma _{ij}}

.

Wie sind die Variabilität und andere Streuungsparameter untereinander angeschlossen ?

Fasst man die Variabilität als Streuungsparameter der Aufteilung einer Zufallsgröße auf, so ist sie mit den nachfolgenden Streuungsparametern angewandt:

  • Variationskoeffizient: Der Variationskoeffizient als Relation von Varianz und Erwartungswert und damit ein dimensionsloser Streuungsparameter
  • Quantilabstand: Der Quantilabstand zum Kenngröße
    p {displaystyle p}

    gibt an, wie ausgedehnt das

    p {displaystyle p}

    – und das

    {displaystyle}

    -Quantil voneinander fernliegend sind

  • Mittlere vollständige Abschweifung: Die mittlere vollständige Abschweifung als erster totaler relevanter Augenblick

    👉 Dir gefällt dieser Beitrag?
    Success! Thanks for Your Request.
    Error! Please Try Again.