„Multivariate Verteilung“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
Keine Bearbeitungszusammenfassung |
-haznK (Diskussion | Beiträge) Linkvorschlag-Funktion: 1 Link hinzugefügt. |
||
(130 dazwischenliegende Versionen von 59 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
{{Dieser Artikel|behandelt die multivariate Verteilung; zur abgeleiteten multivariaten Verteilungsfunktion siehe [[Multivariate Verteilungsfunktion]].}} |
|||
Die gemeinsame [[Wahrscheinlichkeitsverteilung]] mehrerer Zufallsvariablen nennt man '''multivariate Verteilung''' oder auch mehrdimensionale Verteilung. |
|||
Eine '''multivariate Verteilung''' ist in der [[Wahrscheinlichkeitsrechnung]] und in der [[Statistik]] die [[Verteilung einer Zufallsvariablen|Verteilung]] eines [[Zufallsvektor]]s – also einer [[Zufallsvariable]]n, deren Werte Vektoren im <math>\R^n</math> sind. Im zweidimensionalen Fall <math>n=2</math> spricht man auch von einer '''bivariaten Verteilung'''. Die multivariate Verteilung eines Zufallsvektors <math>X = (X_1, \dotsc, X_n)</math> ist somit ein [[Wahrscheinlichkeitsmaß]] auf <math>\R^n</math>, das [[Messbare Menge|messbaren]] Teilmengen <math>A \subseteq \R^n</math> die Wahrscheinlichkeit zuordnet, dass <math>X</math> einen Wert aus <math>A</math> annimmt. Eine multivariate Verteilung kann durch eine [[multivariate Verteilungsfunktion]] charakterisiert werden. Die Verteilungen der einzelnen Komponenten <math>X_i</math> eines Zufallsvektors werden die [[Randverteilung]]en von <math>X</math> genannt. Beispiele für multivariate Verteilungen sind die [[Multinomialverteilung]] oder die [[multivariate Normalverteilung]], weitere finden sich in der [[Liste multivariater und matrixvariater Wahrscheinlichkeitsverteilungen]]. |
|||
==Formale Darstellung== |
|||
== Einführendes Beispiel == |
|||
Um Verwechslungen zu vermeiden, werden Zufallsvariablen - wie meistens - groß geschrieben, '''Zufallsvektoren''' jedoch klein. Matrizen und Vektoren werden unterstrichen. |
|||
Wir betrachten zwei Zufallsexperimente: |
|||
# Zweimaliges Würfeln mit einem idealen Würfel. Dies ist äquivalent zu einem [[Urnenmodell|Urnenexperiment]] mit sechs unterscheidbaren Kugeln, wobei zweimal ''mit Zurücklegen'' gezogen wird. Es gibt 36 mögliche Ergebnispaare (da wir die Reihenfolge des Würfelns bzw. der Ziehung berücksichtigen), und alle 36 Möglichkeiten sind gleich wahrscheinlich, haben also eine Wahrscheinlichkeit von 1/36. |
|||
# Ein ähnliches Urnenexperiment, aber ''ohne Zurücklegen''. In diesem Fall kommen die Ergebnisse (1,1), (2,2), …, (6,6) nicht vor, da die <math>i</math>-te Kugel beim zweiten Ziehen nicht vorkommen kann, wenn sie bereits bei der ersten Ziehung herausgenommen wurde. Die übrigen 30 Paare sind gleich wahrscheinlich und haben daher die Wahrscheinlichkeit 1/30. |
|||
Diese beiden Experimente ergeben nun zweidimensionale diskrete Zufallsvariablen <math>Z_1</math> und <math>Z_2</math>, welche die gleichen [[Randverteilung]]en haben (jede Zahl von 1 bis 6 ist bei beiden Experimenten in beiden Ziehungen gleich wahrscheinlich und tritt mit Wahrscheinlichkeit 1/6 auf). |
|||
Jedoch sind die beiden Ziehungen im ersten Experiment [[Stochastisch unabhängige Ereignisse|unabhängig]], da die gezogene Kugel zurückgelegt wird, während sie im zweiten Experiment nicht unabhängig sind. Das wird am deutlichsten, wenn man sich klarmacht, dass die Paare (1,1), (2,2), …, (6,6) bei einem unabhängigen Experiment jeweils mit Wahrscheinlichkeit 1/36 vorkommen müssen (Produkt der Randwahrscheinlichkeiten 1/6), sie aber beim zweiten Experiment überhaupt nicht auftreten können (Wahrscheinlichkeit 0 haben), da die Kugel nicht zurückgelegt wird. |
|||
Man betrachtet p viele [[Zufallsvariable|Zufallsvariablen]] X<sub>j</sub> (j = 1, ..., p), jeweils mit einem [[Erwartungswert]] EX<sub>j</sub> und der [[Varianz]] varX<sub>j</sub>. Die Zufallsvariablen sind zudem paarweise korreliert mit der [[Kovarianz (Stochastik)|Kovarianz]] covX<sub>j</sub>X<sub>k</sub> (j,k = 1, ...,p; j ≠ k). |
|||
Die Verteilungen von <math>Z_1</math> und <math>Z_2</math> sind daher verschieden; es handelt sich also um ein Beispiel zweier unterschiedlicher diskreter multivariater Verteilungen mit gleichen Randverteilungen. |
|||
Man interessiert sich für die gemeinsame Wahrscheinlichkeit, dass alle X<sub>j</sub> höchstens gleich einer jeweiligen Konstanten x<sub>j</sub> sind, also |
|||
== {{Anker|Bivarianz}} Bivariate Verteilung == |
|||
P(X<sub>1</sub> ≤ x<sub>1</sub> ≤ X<sub>2</sub> ≤ x<sub>2</sub> ≤ ... ? X<sub>p</sub> ≤ x<sub>p</sub>) = F<sub>X</sub>(x<sub>1</sub>;x<sub>2</sub>; ... , x<sub>p</sub>). |
|||
[[Datei:NormalWithClaytonDependence.png|mini|rechts|450px|10000 Stichproben einer mit der [[Copula (Mathematik)#Archimedische Copulae|Clayton-Copula]] modellierten bivariaten Verteilung (mit <math>\alpha = 2{,}88</math>), bei der die Randverteilungen eindimensionale Standardnormalverteilungen sind]] |
|||
Die Realisationen eines bivariaten Zufallsvektors (einer zweidimensionalen Zufallsvariablen) <math>Z=(X,Y)</math> sind Vektoren in <math>\R^2 = \R \times \R</math>. |
|||
Die bivariate Verteilung des Zufallsvektors <math>Z</math> liegt durch die Angabe der Wahrscheinlichkeiten |
|||
: <math>P(Z \in B)\quad\text{für alle } B \in \mathcal{B}(\R^2)</math> |
|||
fest, wobei <math>\mathcal{B}(\R^2)</math> die [[Borelsche σ-Algebra]] auf <math>\R^2</math> bezeichnet. Durch <math>P_Z(B) := P(Z \in B)</math> für alle <math>B \in \mathcal{B}(\R^2)</math> ist ein [[Wahrscheinlichkeitsmaß]] <math>P_Z\colon \mathcal{B}(\R^2) \to [0,1]</math> definiert, das <math>(\R^2,\mathcal{B}(\R^2),P_Z)</math> zu einem [[Wahrscheinlichkeitsraum]] macht. <math>P_Z</math> ist die bivariate Wahrscheinlichkeitsverteilung oder kurz '''bivariate Verteilung von''' <math>Z</math>. |
|||
=== Bivariate Verteilungsfunktion === |
|||
Multivariate Zufallsvariablen werden i.a. in [[Matrix|Matrixform]] dargestellt. Man fasst die Zufallsvariablen in einem (px1)-Zufallsvektor <u>x</u> zusammen: |
|||
Die Verteilung des Zufallsvektors <math>Z</math> liegt bereits dann fest, wenn die Wahrscheinlichkeiten |
|||
: <math>P(Z \in (-\infty,x] \times (-\infty,y]) \quad\text{für alle } x, y \in \R</math> |
|||
gegeben sind. Dies motiviert das Konzept der bivariaten [[Verteilungsfunktion]] des Zufallsvektors <math>Z</math>, die durch |
|||
: <math>F_Z(x,y) = P(X \le x, Y \le y) \quad\text{für alle } x, y \in \R</math> |
|||
definiert ist. Durch Angabe der Funktion <math>F_Z\colon \R^2 \to [0,1]</math> liegt die Wahrscheinlichkeitsverteilung von <math>Z</math> fest, da sich aus den durch die Verteilungsfunktion angegebenen Wahrscheinlichkeiten mit den Regeln der Wahrscheinlichkeitsrechnung die Wahrscheinlichkeiten aller anderen Ereignisse ergeben. |
|||
=== Bivariate Dichtefunktion === |
|||
:<math>\underline x = |
|||
Falls der Zufallsvektor <math>Z</math> eine bivariate (oder zweidimensionale) Dichtefunktion <math>f_{X,Y}</math> besitzt, dann besteht zwischen der bivariaten Verteilungsfunktion und der bivariaten Dichtefunktion der Zusammenhang |
|||
\begin{pmatrix} |
|||
: <math>F_Z(x,y) = \int_{-\infty}^{y}\int_{-\infty}^{x} f_{X,Y}(u,v)\mathrm{d}u \, \mathrm{d}v</math>. |
|||
X_1 \\ |
|||
Somit liegt durch die Angabe einer bivariaten Dichtefunktion die bivariate Verteilungsfunktion und damit die bivariate Verteilung fest. |
|||
X_2 \\ |
|||
\vdots\\ |
|||
X_p |
|||
\end{pmatrix} |
|||
</math> . |
|||
=== Bivariate Verteilung und bedingte Wahrscheinlichkeiten === |
|||
Für die obige gemeinsame Wahrscheinlichkeit erhält man |
|||
Wenn die Zufallsvariable diskret ist, dann kann man die gemeinsame Verteilung mit Hilfe [[Bedingte Wahrscheinlichkeit|bedingter Wahrscheinlichkeiten]] so schreiben: |
|||
:<math> |
: <math> |
||
\begin{align} |
|||
\mathrm{P}(X=x\ \mathrm{und}\ Y=y) & {} = \mathrm{P}(Y=y \mid X=x) \cdot \mathrm{P}(X=x) \\ |
|||
x_1 \\ |
|||
& {} = \mathrm{P}(X=x \mid Y=y) \cdot \mathrm{P}(Y=y) |
|||
x_2 \\ |
|||
\end{align} |
|||
\vdots\\ |
|||
x_p |
|||
\end{pmatrix} |
|||
</math>. |
|||
Die Erwartungswerte befinden sich im (px1)-Erwartungswertvektor |
|||
:<math>\underline {Ex}= |
|||
\begin{pmatrix} |
|||
EX_1 \\ |
|||
EX_2 \\ |
|||
\vdots\\ |
|||
EX_p |
|||
\end{pmatrix} |
|||
</math> . |
|||
Die Varianzen werden zusammen mit den Kovarianzen in der (pxp)-Kovarianzmatrix <math>\underline \Sigma</math> aufgeführt: |
|||
:<math>\underline \Sigma= |
|||
\begin{pmatrix} |
|||
varX_1 & covX_1X_2 & covX_1X_3 & \ldots & covX_1X_{p-1} & covX_1X_p \\ |
|||
covX_2X_1 & varX_2 & covX_2X_3 & \ldots & covX_2X_{p-1} & covX_2X_p \\ |
|||
covX_3X_1 & covX_3X_2 & varX_3 & \ldots & covX_3X_{p-1} & covX_3X_p \\ |
|||
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots \\ |
|||
covX_{p-1}X_1 & covX_{p-1}X_2 & covX_{p-1}X_3 & \ldots & varX_{p-1} & covX_{p-1}X_p \\ |
|||
covX_pX_1 & covX_pX_2 & covX_pX_3 & \ldots & covX_pX_{p-1} & varX_p \\ |
|||
\end{pmatrix} |
|||
</math> |
</math> |
||
und im stetigen Fall entsprechend |
|||
: <math>f_{X,Y}(x,y) = f_{Y|X}(y|x)f_X(x) = f_{X|Y}(x|y)f_Y(y).</math> |
|||
Hier sind <math>f_{Y|X}(y|x)</math> und <math>f_{X|Y}(x|y)</math> die bedingten Dichten (<math>Y</math> unter der Bedingung <math>X=x</math>, bzw. von <math>X</math> unter der Bedingung <math>Y=y</math>) und <math>f_X(x), f_Y(y)</math> die Dichten der [[Randverteilung]]en von <math>X</math> und <math>Y</math>. |
|||
=== Stochastische Unabhängigkeit === |
|||
Man sieht, dass <u>Σ</u> [[symmetrisch]] ist. Auf der Hauptdiagonalen sind die Varianzen angeordnet. <u>x</u> ist also verteilt mit dem Erwartungswertvektor <u>EX</u> und der Kovarianzmatrix <u>Σ</u>. |
|||
Die Komponenten des Zufallsvektors <math>Z=(X,Y)</math> sind genau dann stochastisch unabhängig, wenn |
|||
: <math>P(X \leq x, Y \leq y) = P(X \leq x) \cdot P(Y \leq y) \quad\text{für alle } x, y \in \R</math> |
|||
Die Umformung zu den [[Korrelationskoeffizient|Korrelationskoeffizienten]] |
|||
gilt. Anderenfalls liegt stochastische Abhängigkeit vor. |
|||
Wenn für diskrete Zufallsvariablen |
|||
:<math>\rho_{jk}={covX_jX_k \over\ \sqrt{varX_j\cdot varX_k}}</math> |
|||
: <math>P(X = x, Y = y) = P(X = x) \cdot P(Y = y) \quad\text{für alle } x, y \in \R</math> |
|||
gilt oder wenn für stetige Zufallsvariablen |
|||
ergibt die Korrelationsmatrix |
|||
: <math>f_{X,Y}(x,y) = f_X(x) \cdot f_Y(y) \quad\text{für alle } x, y \in \R</math> |
|||
gilt, dann sind die Zufallsvariablen <math>X</math> und <math>Y</math> [[Stochastisch unabhängige Zufallsvariablen|unabhängig]]. |
|||
:<math>\underline R= |
|||
\begin{pmatrix} |
|||
1 & \rho_{12} & \rho_{13} & \ldots & \rho_{1p} \\ |
|||
\rho_{21} & 1 & \rho_{23} & \ldots & \rho_{2p} \\ |
|||
\rho_{31} & \rho_{32} & 1 & \ldots & \rho_{3p} \\ |
|||
\vdots & \vdots & \vdots & \ddots & \vdots \\ |
|||
\rho_{p1} & \rho_{p2} & \rho_{p3} & \ldots & 1\\ |
|||
\end{pmatrix} |
|||
</math> |
|||
Gemeinsame Wahrscheinlichkeiten sind häufig schwierig zu berechnen, vor allem, wenn schon die Einzelwahrscheinlichkeiten nicht analytisch bestimmbar sind. Man behilft sich dann gegebenenfalls mit Abschätzungen. Vor allem können die Auswirkungen der Kovarianz auf die Verteilung in der Regel nicht abgesehen werden. |
|||
Sind die Zufallsvariablen [[stochastisch unabhängig]], ist die gemeinsame Wahrscheinlichkeit gleich dem Produkt der entsprechenden Einzelwahrscheinlichkeiten. |
|||
:<math>F_x(\underline x)=\underline F_X |
|||
\begin{pmatrix} |
|||
x_1 \\ |
|||
x_2 \\ |
|||
\vdots\\ |
|||
x_p |
|||
\end{pmatrix}=F_{X_1}(x_1) \cdot F_{X_2}(x_2) \cdot ... \cdot F_{X_p}(x_p) |
|||
</math>. |
|||
==Ausgewählte multivariate Verteilungen== |
|||
Von Bedeutung sind vor allem die |
|||
*[[Normalverteilung#Mehrdimensionale Normalverteilung|multivariate Normalverteilung]], |
|||
*Hotelling [[t-Verteilung]] als multivariate t-Verteilung, |
|||
*Wishart-Verteilung als multivariate [[Chi-Quadrat-Verteilung]], |
|||
die [[multivariate Verfahren|multivariaten Verfahren]] zu Grunde liegen. Meistens ist es möglich, mittels einer [[lineare Transformation|linearen Transformation]] den Zufallsvektor in ein [[Skalar (Mathematik)|Skalar]] umzuwandeln, das dann [[univariat]] verteilt ist und so als Testprüfgröße fungiert. |
|||
==Die multivariate Normalverteilung== |
|||
[[Bild:NormalVert2d.png|thumb|Dichte der zweidimensionalen Standardnormalverteilung]] |
|||
Gegeben ist ein Vektor <u>x</u> aus p gemeinsam normalverteilten Zufallsvariablen mit dem Erwartungswertvektor <u>μ</u> und der Kovarianzmatrix <u>Σ</u>. Die gemeinsame Dichtefunktion der Vektorkomponenten ist gegeben durch |
|||
:<math>f_x(x)=(2\pi)^{-{p\over2}}|\underline \Sigma|^{-{1 \over 2}}exp(-{1 \over 2}(\underline x-\underline \mu)^T\underline \Sigma^{-1}(\underline x-\underline \mu)) |
|||
</math>. |
|||
Es ist also |
|||
::<math>\underline x\sim N_p(\underline \mu;\underline \Sigma)</math>. |
|||
Die Kovarianzmatrix <u>Σ</u> ist i. a. positiv definit. Die Werte der Verteilungsfunktion F müssen numerisch ermittelt werden. |
|||
Die multivariate Normalverteilung hat spezielle Eigenschaften: |
|||
*Sind die Komponenten des Zufallsvektors <u>x</u> paarweise unkorreliert, sind sie auch stochastisch unabhängig. |
|||
*Die [[lineare Transformation]] <u>y</u> = <u>a</u> + <u>Bx</u> mit <u>B</u> als (qxp)-Matrix (q ≤ p) und <u>a</u> als (qx1)-Vektor ist q-dimensional normalverteilt als N<sub>q</sub> (<u>a</u> + <u>Bμ</u>; <u>BΣB</u><sup>T</sup>). |
|||
*Die lineare Transformation |
|||
::<math>\underline y=\underline \Sigma^{-{1\over2}}(\underline x-\underline \mu) </math> |
|||
:[[Standardnormalverteilung|standardisiert]] den Zufallsvektor <u>x</u>. Es ist |
|||
::<math>\underline Y \sim N_p(\underline 0;\underline 1)</math>. |
|||
:also sind die Komponenten von <u>y</u> stochastisch unabhängig. |
|||
*X kann auch eine [[singulär|singuläre]] Kovarianzmatrix besitzen. Man spricht dann von einer degenierten oder singulären multivariaten Normalverteilung. |
|||
==Beispiel für eine multivariate Normalverteilung== |
|||
Betrachtet wird eine Apfelbaumplantage mit sehr vielen gleich alten, also vergleichbaren Apfelbäumen. Man interessiert sich für die Merkmale Größe der Apfelbäume, die Zahl der Blätter und die Erträge. Es werden also die Zufallsvariablen definiert: |
|||
X<sub>1</sub>: Höhe eines Baumes [m]; X<sub>2</sub> : Ertrag [100 kg]; X<sub>3</sub> : Zahl der Blätter [1000 Stück]. |
|||
Die Variablen sind jeweils normalverteilt wie |
|||
:<math>X_1 \sim N(4;1); X_2 \sim N(20;100); X_3 \sim N(20;225);</math> |
|||
Die meisten Bäume sind also um 4 ± 1m groß, sehr kleine oder sehr große Bäume sind eher selten. Bei einem großen Baum ist der Ertrag tendenziell größer als bei einem kleinen Baum, aber es gibt natürlich hin und wieder einen großen Baum mit wenig Ertrag. Ertrag und Größe sind korreliert, die Kovarianz beträgt covX<sub>1</sub>X<sub>2</sub>=9 und der Korrelationskoeffizient ρ<sub>1</sub><sub>2</sub> = 0,9. |
|||
Ebenso ist covX<sub>1</sub>X<sub>3</sub>=12,75 mit dem Korrelationskoeffzienten ρ<sub>13</sub> = 0,85, und covX<sub>2</sub>X<sub>3</sub>=120 mit dem Korrelationskoeffzienten ρ<sub>23</sub> = 0,8. |
|||
Fasst man die drei Zufallsvariablen im Zufallsvektor <u>x</u> zusammen, ist <u>x</u> multivariat normalverteilt mit |
|||
:<math>\underline \mu = |
|||
\begin{pmatrix} |
|||
4 \\ |
|||
20 \\ |
|||
20 |
|||
\end{pmatrix} |
|||
</math> |
|||
und |
|||
:<math>\underline \Sigma= |
|||
\begin{pmatrix} |
|||
1& 9 &12,75 \\ |
|||
9 &100& 120 \\ |
|||
12,75 &120& 225 |
|||
\end{pmatrix} |
|||
</math> . |
|||
Die entsprechende Korrelationsmatrix ist |
|||
:<math>\underline R= |
|||
\begin{pmatrix} |
|||
1& 0,9 &0,85 \\ |
|||
0,9 &1& 0,8 \\ |
|||
0,85 &0,8&1 |
|||
\end{pmatrix} |
|||
</math>. |
|||
==Stichproben bei Multivariaten Verteilungen== |
|||
In der Realität werden in aller Regel die Verteilungsparameter einer Multivariaten Verteilung nicht bekannt sein. Diese Parameter müssen also [[Schätzfunktion|geschätzt]] werden. |
|||
Man zieht eine Stichprobe vom Umfang n. Jede Realisation i (i=1,...,n) des Zufallsvektors <u>x</u> könnte man als Punkt in einem p-dimensionalen Hyperraum auffassen. Man erhält so die (nxp)-Datenmatrix <u>X</u> als |
|||
:<math>\underline X= |
|||
\begin{pmatrix} |
|||
x_{11}& x_{12}& \cdots &x_{1j}&\cdots &x_{1p}\\ |
|||
x_{21}& x_{22}& \cdots &x_{2j}&\cdots &x_{2p}\\ |
|||
\vdots& & & & &\vdots \\ |
|||
x_{i1}& x_{i2}& \cdots &x_{ij}&\cdots &x_{ip}\\ |
|||
\vdots& & & & &\vdots \\ |
|||
x_{n1}& x_{n2}& \cdots &x_{nj}&\cdots &x_{np} |
|||
\end{pmatrix} |
|||
</math> , |
|||
die in jeder Zeile die Koordinaten eines Punktes enthält. |
|||
Der Erwartungswertvektor wird geschätzt durch den Mittelwertvektor der p arithmetischen Durchschnitte |
|||
:<math>\underline \widehat{Ex}=\underline \bar x= |
|||
\begin{pmatrix} |
|||
\bar x_1\\ |
|||
\bar x_2\\ |
|||
\vdots\\ |
|||
\bar x_j\\ |
|||
\vdots\\ |
|||
\bar x_p |
|||
\end{pmatrix} |
|||
</math> |
|||
mit den Komponenten |
|||
<math> |
|||
\bar x_j = |
|||
\frac{1}{n}\sum_{i=1}^n x_{ij} |
|||
</math>. |
|||
Für die Schätzung der Kovarianzmatrix erweist sich die bezüglich der arithmetischen Mittelwerte zentrierte Datenmatrix <u>X*</u> als nützlich. Sie berechnet sich als |
|||
<math> |
|||
\underline X^*=\underline X-\underline l\cdot\underline \bar x^T |
|||
</math>, |
|||
mit den Elementen x*<sub>ij</sub>, wobei <u>l</u> einen (nx1)-Spaltenvektor mit lauter Einsen bedeutet. |
|||
Die (pxp)-Kovarianzmatrix hat die geschätzten Komponenten |
|||
:<math>s_{jk}=\widehat{covX_jX_k}=\frac{1}{n-1}\sum_{i=1}^n x*_{ij}x*_{ik}</math>. |
|||
Sie ergibt sich als |
|||
:<math>\widehat{\underline \Sigma}=\underline S= \frac{1}{n-1}\underline X^{*T}\underline X^*</math>. |
|||
Die Korrelationsmatrix <u>R</u> wird geschätzt durch die paarweisen Korrelationskoeffizienten |
|||
:<math>r_{jk}= \frac{\sum_{i=1}^n x*_{ij}x*_{ik}} {\sqrt{\sum_{i=1}^n x*_{ij}^2}\sqrt{\sum_{i=1}^n x*_{ik}^2}}</math>, |
|||
auf ihrer Hauptdiagonalen stehen Einsen. |
|||
==Beispiel zu Stichproben== |
|||
Es wurden 10 Apfelbäume zufällig ausgewählt. Die 10 Beobachtungen werden in der Datenmatrix <u>X</u> zusammengefasst: |
|||
:<math>\underline X= |
|||
\begin{pmatrix} |
|||
3,3&24& 27 \\ |
|||
4,9& 41&55\\ |
|||
5,9& 46&52 \\ |
|||
5,2& 49&54\\ |
|||
3,6& 29 &34 \\ |
|||
4,2&33& 51 \\ |
|||
5,0&42& 43\\ |
|||
5,1&35& 54 \\ |
|||
6,8&60& 70 \\ |
|||
5,0&41&50 |
|||
\end{pmatrix} |
|||
</math> . |
|||
Die Mittelwerte berechnen sich, wie beispielhaft an <math>\bar x_1</math> gezeigt, als |
|||
:<math> \bar x_1=\frac{1}{10}(3,3+4,9+...+5,0)=4,9</math>. |
|||
Sie ergeben den Mittelwertvektor |
|||
:<math>\underline \bar x= |
|||
\begin{pmatrix} |
|||
4,9\\ |
|||
40\\ |
|||
49 |
|||
\end{pmatrix} |
|||
</math> |
|||
Für die zentrierte Datenmatrix <u>X</u>* erhält man die zentrierten Beobachtungen, indem man von den Spalten den entsprechenden Mittelwert abzieht: |
|||
=== Abhängigkeitsstruktur und Copula === |
|||
{| |
|||
Wenn die Komponenten des Zufallsvektors <math>(X,Y)</math> nicht stochastisch unabhängig sind, kann die Abhängigkeitsstruktur durch die sogenannte [[Copula (Mathematik)|Copula]] charakterisiert werden. |
|||
| 3,3 - 4,9 = -1,6; |
|||
In der Abbildung ist ein Beispiel für die Modellierung der Abhängigkeitsstruktur mit Hilfe einer speziellen Copula gezeigt. Insbesondere ist das ein Beispiel dafür, dass eine bivariate Zufallsvariable mit normalen Randverteilungen nicht [[Mehrdimensionale Normalverteilung|bivariat normalverteilt]] sein muss. |
|||
| 24 – 40 = -16; |
|||
| 27 - 49 = -22 |
|||
|- |
|||
| 4,9 - 4,9 = 0; |
|||
| 41 - 40 = 1; |
|||
| 55 - 49 = 6 |
|||
|- |
|||
| |
|||
|<center>'''...'''</center> |
|||
| |
|||
|}, |
|||
== Der allgemeine mehrdimensionale Fall == |
|||
also |
|||
Multivariate Verteilungen ordnen einem geeigneten [[Teilmengensystem]] von <math>\R^n</math>, dem sogenannten [[Ereignissystem]], Wahrscheinlichkeiten zu. Typischerweise wird als Ereignissystem die [[Borelsche σ-Algebra]] auf <math>\R^n</math> gewählt, die mit <math>\mathcal{B}(\R^n)</math> bezeichnet wird. Aus wahrscheinlichkeitstheoretischer Sicht gilt: „Multivariate Verteilungen sind Wahrscheinlichkeitsmaße auf <math>\mathcal{B}(\R^n)</math>.“<ref>{{Literatur |Autor=Klaus D. Schmidt |Titel=Maß und Wahrscheinlichkeit |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=2011 |ISBN=978-3-642-21025-9 |Auflage=2., durchgesehene Auflage |Seiten=292}}</ref> |
|||
Bei Anwendungen, insbesondere im Bereich der Statistik, steht ein Zufallsvektor (eine <math>n</math>-dimensionale Zufallsvariable), <math>X: \Omega \to \R^n</math> im Vordergrund, dessen Komponenten Zufallsvariablen sind. Der Zufallsvektor <math>X = (X_1,\dots, X_n)</math> besitzt dann eine multivariate Verteilung, die das Bildmaß <math>P_X</math> von <math>P</math> unter <math>X</math> ist. Dabei gilt |
|||
:<math>\underline \underline X^*= |
|||
: <math>P_X(B) = P(X \in B)\quad\text{für alle }B \in \mathcal{B}(\R^n)\;.</math> |
|||
\begin{pmatrix} |
|||
-1,6&-16& -22 \\ |
|||
0,0& 1&6\\ |
|||
1,0& 6&3 \\ |
|||
0,3& 9&5\\ |
|||
-1,3& -11 &-15 \\ |
|||
-0,7&-7& 2 \\ |
|||
0,1&2& -6\\ |
|||
0,2&-5& 5 \\ |
|||
1,9&20& 21 \\ |
|||
0,1&1&1 |
|||
\end{pmatrix} |
|||
</math> . |
|||
=== Verteilungsfunktion === |
|||
Man berechnet für die Kovarianzmatrix die Kovarianzen, wie im Beispiel, |
|||
{{Hauptartikel |Multivariate Verteilungsfunktion}} |
|||
Die Verteilungsfunktion <math>F_P</math> einer multivariaten Verteilung <math>P \colon \mathcal{B}(\R^n) \to [0,1]</math> ist durch |
|||
: <math>F_P(x_1, \dots, x_n) = P((-\infty,x_1]\times \dots \times (-\infty,x_n]) \quad\text{für alle }(x_1, \dots, x_n) \in \R^n</math> |
|||
definiert.<ref>{{Literatur |Autor=Klaus D. Schmidt |Titel=Maß und Wahrscheinlichkeit |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=2011 |ISBN=978-3-642-21025-9 |Auflage=2., durchgesehene Auflage |Seiten=294}}</ref> |
|||
Die Verteilungsfunktion <math>F_X</math> eines Zufallsvektors <math>X \colon \Omega \to \R^n</math> ist durch |
|||
:<math>s_{12}=\widehat{covX_1X_2}=\frac{1}{9}(-1,6 \cdot (-16)+0\cdot 1+...+0,1\cdot 1) =\frac{91}{9}\approx 10,09</math> |
|||
: <math>F_X(x_1, \dots, x_n) = P(X_1 \leq x_1, \dots, X_n \leq x_n) = P(X \in (-\infty,x_1]\times \dots \times (-\infty,x_n]) \quad\text{für alle }(x_1, \dots, x_n) \in \R^n</math> |
|||
definiert.<ref name="MKB">{{Literatur |Autor=K. V. Mardia, J. T. Kent und J. M. Bibby |Titel=Multivariate Analysis |Datum=1979 |Seiten=26}}</ref> |
|||
Besitzt der Zufallsvektor <math>X=(X_1, \dots, X_n)</math> eine [[Dichtefunktion]] <math>f_X \colon \R^n \to [0,\infty)</math>, dann hängen die Verteilungsfunktion <math>F_X</math> und die Dichte <math>f_X</math> über |
|||
und entsprechend die Varianzen |
|||
: <math>F_X(x_1, \dots, x_n) = \int_{-\infty}^{x_n} \dots \int_{-\infty}^{x_1} f_X(u_1, \dots, u_n) \mathrm{d} u_1 \dots \mathrm{d} u_n</math> |
|||
zusammen.<ref name="MKB" /> |
|||
=== Randverteilungen === |
|||
:<math>s_{22}=\widehat{varX_2}=\frac{1}{9}((-16)^2 +1^2+...+1^2) =\frac{974}{9}\approx 108,22</math> , |
|||
Es gibt für Randverteilungen mehr Möglichkeiten als im zweidimensionalen Fall, da nun Randverteilungen für jede niedrigere Dimension <math>1 \le k < n</math> existieren und man <math>{n \choose k}</math> Möglichkeiten hat, einen <math>k</math>-dimensionalen Teilvektor aus einem <math>n</math>-dimensionalen Vektor auszuwählen. Beispielsweise gibt es im dreidimensionalen Fall zur Verteilung des Zufallsvektors <math>(X_1,X_2,X_3)</math> die drei eindimensionale Randverteilungen der Komponenten <math>X_1</math>, <math>X_2</math> und <math>X_3</math> sowie die drei zweidimensionale Randverteilungen der Teilvektoren <math>(X_1,X_2)</math>, <math>(X_1,X_3)</math> und <math>(X_2,X_3)</math>. |
|||
== Verteilungen von Zufallsmatrizen == |
|||
so dass sich die Kovarianzmatrix |
|||
Eine Zufallsmatrix <math>\mathbf X</math> ist eine Matrix, deren Elemente Zufallsvariablen sind. Sie kann als eine Funktion <math>\mathbf X\colon \Omega \to \R^{m\times n}</math> aufgefasst werden. Die Verteilung einer [[Zufallsmatrix]] ordnet den (Borel-messbaren) Teilmengen von <math>\R^{m\times n}</math> Wahrscheinlichkeiten zu. |
|||
Im Zusammenhang mit der Schätzung der [[Kovarianzmatrix]] einer <math>d</math>-dimensionalen [[Multivariate Normalverteilung|multivariaten Normalverteilung]] spielt eine <math>d\times d</math>-dimensionale [[Wishart-Verteilung]] eine entscheidende Rolle.<ref>{{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage=5 |ISBN=978-3-05-500608-1 |Fundstelle=''Wishart-Verteilung'', S. 69}}</ref><ref>{{Literatur |Autor=K. V. Mardia, J. T. Kent, J. M. Bibby |Titel=Multivariate Analysis |Datum=1979 |Seiten=69}}</ref> Die Wishart-Verteilung ist eine Matrix-Verallgemeinerung der [[Chi-Quadrat-Verteilung]].<ref>{{Literatur |Autor=K. V. Mardia, J. T. Kent, J. M. Bibby |Titel=Multivariate Analysis |Datum=1979 |Seiten=43}}</ref> |
|||
:<math>\underline S= |
|||
\begin{pmatrix} |
|||
1,06&10,09&10,91 \\ |
|||
10,09& 108,22&106,22\\ |
|||
10,91& 106,22&142,89 |
|||
\end{pmatrix} |
|||
</math> |
|||
== Spezielle multivariate Verteilungen == |
|||
ergibt. |
|||
=== Diskrete multivariate Verteilungen === |
|||
Spezielle multivariate Verteilungen sind z. B. die [[Multinomialverteilung]],<ref>{{Literatur |Autor=Norman L. Johnson, [[Samuel Kotz]], Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 35}}</ref> die [[negative Multinomialverteilung]],<ref>{{Literatur |Autor=Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 36}}</ref> die [[multivariate Poissonverteilung]],<ref>{{Literatur |Autor=Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 37}}</ref> die [[multivariate hypergeometrische Verteilung]],<ref>{{Literatur |Autor=Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 39}}</ref> die [[multivariate Pólya-Eggenberger-Verteilung]]<ref>{{Literatur |Autor=Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 40}}</ref> und die [[multivariate Ewens-Verteilung]]<ref>{{Literatur |Autor=Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Datum=1997 |Fundstelle=Kap. 41}}</ref>. |
|||
=== Stetige multivariate Verteilungen === |
|||
Entsprechend erhält man für die Korrelationsmatrix zum Beispiel |
|||
Spezielle stetige multivariate Verteilungen sind z. B. die [[multivariate Normalverteilung]],<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 44}}</ref> verschiedene Konzepte multivariater [[Multivariate Exponentialverteilung|Exponentialverteilungen]],<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 47}}</ref> [[Multivariate Gammaverteilung|Gammaverteilungen]],<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 48}}</ref> [[Multivariate logistische Verteilung|logistischer Verteilungen]],<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 51}}</ref> die [[multivariate Dirichlet-Verteilung]],<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 49}}</ref> die [[multivariate Liouville-Verteilung]]<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 50}}</ref> und die [[Multivariate Extremwertverteilung|multivariaten Extremwertverteilungen]]<ref>{{Literatur |Autor=Samuel Kotz et al. |Titel=Continuous Multivariate Distributions |Datum=2000 |Fundstelle=Kap. 53}}</ref>. |
|||
== Literatur == |
|||
:<math> r_{12}=\frac{10,09}{\sqrt{1,06\cdot 108,22 }} \approx 0,9439</math> |
|||
* Ludwig Fahrmeir, Alfred Hamerle (Hrsg.): ''Multivariate statistische Verfahren.'' de Gruyter, New York 1996, ISBN 3-11-008509-7. |
|||
* Joachim Hartung, Bärbel Elpelt: ''Multivariate Statistik.'' Oldenbourg, München/Wien 1999, ISBN 3-486-25287-9. |
|||
* {{Literatur |Autor=Norman L. Johnson, [[Samuel Kotz]], Narayanaswamy Balakrishnan |Titel=Discrete Multivariate Distributions |Verlag=Wiley |Ort=New York |Datum=1997 |ISBN=978-0-471-12844-1}} |
|||
* K. V. Mardia, J. T. Kent, J. M. Bibby: ''Multivariate Analysis.'' Acad. Press, New York 1979, ISBN 0-12-471250-9 (engl.). |
|||
* {{Literatur |Autor=[[Samuel Kotz]], Narayanaswamy Balakrishnan, Norman L. Johnson |Titel=Continuous Multivariate Distributions – Volume 1: Models and Applications |Auflage=2 |Verlag=Wiley |Ort=New York |Datum=2000 |ISBN=978-0-471-18387-7 |DOI=10.1002/0471722065}} |
|||
== Einzelnachweise == |
|||
bzw. insgesamt |
|||
<references /> |
|||
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}} |
|||
:<math>\underline R= |
|||
\begin{pmatrix} |
|||
1&0,9439&0,8884 \\ |
|||
0,9439& 1&0,8542\\ |
|||
0,8884& 0,8542&1 |
|||
\end{pmatrix} |
|||
</math> . |
|||
==Literatur== |
|||
*Mardia, KV, Kent, JT, Bibby, JM: ''Multivariate Analysis'', New York 1979 |
|||
*Fahrmeir, Ludwig, Hamerle, Alfred, Tutz, Gerhard (Hrsg): ''Multivariate statistische Verfahren'', New York 1996 |
|||
*Hartung, Joachim, Elpelt, Bärbel: ''Multivariate Statistik'', München, Wien 1999 |
|||
[[Kategorie:Stochastik]] |
|||
[[Kategorie:Wahrscheinlichkeitsverteilung]] |
[[Kategorie:Wahrscheinlichkeitsverteilung]] |
Aktuelle Version vom 8. November 2024, 09:32 Uhr
Eine multivariate Verteilung ist in der Wahrscheinlichkeitsrechnung und in der Statistik die Verteilung eines Zufallsvektors – also einer Zufallsvariablen, deren Werte Vektoren im sind. Im zweidimensionalen Fall spricht man auch von einer bivariaten Verteilung. Die multivariate Verteilung eines Zufallsvektors ist somit ein Wahrscheinlichkeitsmaß auf , das messbaren Teilmengen die Wahrscheinlichkeit zuordnet, dass einen Wert aus annimmt. Eine multivariate Verteilung kann durch eine multivariate Verteilungsfunktion charakterisiert werden. Die Verteilungen der einzelnen Komponenten eines Zufallsvektors werden die Randverteilungen von genannt. Beispiele für multivariate Verteilungen sind die Multinomialverteilung oder die multivariate Normalverteilung, weitere finden sich in der Liste multivariater und matrixvariater Wahrscheinlichkeitsverteilungen.
Einführendes Beispiel
[Bearbeiten | Quelltext bearbeiten]Wir betrachten zwei Zufallsexperimente:
- Zweimaliges Würfeln mit einem idealen Würfel. Dies ist äquivalent zu einem Urnenexperiment mit sechs unterscheidbaren Kugeln, wobei zweimal mit Zurücklegen gezogen wird. Es gibt 36 mögliche Ergebnispaare (da wir die Reihenfolge des Würfelns bzw. der Ziehung berücksichtigen), und alle 36 Möglichkeiten sind gleich wahrscheinlich, haben also eine Wahrscheinlichkeit von 1/36.
- Ein ähnliches Urnenexperiment, aber ohne Zurücklegen. In diesem Fall kommen die Ergebnisse (1,1), (2,2), …, (6,6) nicht vor, da die -te Kugel beim zweiten Ziehen nicht vorkommen kann, wenn sie bereits bei der ersten Ziehung herausgenommen wurde. Die übrigen 30 Paare sind gleich wahrscheinlich und haben daher die Wahrscheinlichkeit 1/30.
Diese beiden Experimente ergeben nun zweidimensionale diskrete Zufallsvariablen und , welche die gleichen Randverteilungen haben (jede Zahl von 1 bis 6 ist bei beiden Experimenten in beiden Ziehungen gleich wahrscheinlich und tritt mit Wahrscheinlichkeit 1/6 auf).
Jedoch sind die beiden Ziehungen im ersten Experiment unabhängig, da die gezogene Kugel zurückgelegt wird, während sie im zweiten Experiment nicht unabhängig sind. Das wird am deutlichsten, wenn man sich klarmacht, dass die Paare (1,1), (2,2), …, (6,6) bei einem unabhängigen Experiment jeweils mit Wahrscheinlichkeit 1/36 vorkommen müssen (Produkt der Randwahrscheinlichkeiten 1/6), sie aber beim zweiten Experiment überhaupt nicht auftreten können (Wahrscheinlichkeit 0 haben), da die Kugel nicht zurückgelegt wird.
Die Verteilungen von und sind daher verschieden; es handelt sich also um ein Beispiel zweier unterschiedlicher diskreter multivariater Verteilungen mit gleichen Randverteilungen.
Bivariate Verteilung
[Bearbeiten | Quelltext bearbeiten]
Die Realisationen eines bivariaten Zufallsvektors (einer zweidimensionalen Zufallsvariablen) sind Vektoren in . Die bivariate Verteilung des Zufallsvektors liegt durch die Angabe der Wahrscheinlichkeiten
fest, wobei die Borelsche σ-Algebra auf bezeichnet. Durch für alle ist ein Wahrscheinlichkeitsmaß definiert, das zu einem Wahrscheinlichkeitsraum macht. ist die bivariate Wahrscheinlichkeitsverteilung oder kurz bivariate Verteilung von .
Bivariate Verteilungsfunktion
[Bearbeiten | Quelltext bearbeiten]Die Verteilung des Zufallsvektors liegt bereits dann fest, wenn die Wahrscheinlichkeiten
gegeben sind. Dies motiviert das Konzept der bivariaten Verteilungsfunktion des Zufallsvektors , die durch
definiert ist. Durch Angabe der Funktion liegt die Wahrscheinlichkeitsverteilung von fest, da sich aus den durch die Verteilungsfunktion angegebenen Wahrscheinlichkeiten mit den Regeln der Wahrscheinlichkeitsrechnung die Wahrscheinlichkeiten aller anderen Ereignisse ergeben.
Bivariate Dichtefunktion
[Bearbeiten | Quelltext bearbeiten]Falls der Zufallsvektor eine bivariate (oder zweidimensionale) Dichtefunktion besitzt, dann besteht zwischen der bivariaten Verteilungsfunktion und der bivariaten Dichtefunktion der Zusammenhang
- .
Somit liegt durch die Angabe einer bivariaten Dichtefunktion die bivariate Verteilungsfunktion und damit die bivariate Verteilung fest.
Bivariate Verteilung und bedingte Wahrscheinlichkeiten
[Bearbeiten | Quelltext bearbeiten]Wenn die Zufallsvariable diskret ist, dann kann man die gemeinsame Verteilung mit Hilfe bedingter Wahrscheinlichkeiten so schreiben:
und im stetigen Fall entsprechend
Hier sind und die bedingten Dichten ( unter der Bedingung , bzw. von unter der Bedingung ) und die Dichten der Randverteilungen von und .
Stochastische Unabhängigkeit
[Bearbeiten | Quelltext bearbeiten]Die Komponenten des Zufallsvektors sind genau dann stochastisch unabhängig, wenn
gilt. Anderenfalls liegt stochastische Abhängigkeit vor. Wenn für diskrete Zufallsvariablen
gilt oder wenn für stetige Zufallsvariablen
gilt, dann sind die Zufallsvariablen und unabhängig.
Abhängigkeitsstruktur und Copula
[Bearbeiten | Quelltext bearbeiten]Wenn die Komponenten des Zufallsvektors nicht stochastisch unabhängig sind, kann die Abhängigkeitsstruktur durch die sogenannte Copula charakterisiert werden. In der Abbildung ist ein Beispiel für die Modellierung der Abhängigkeitsstruktur mit Hilfe einer speziellen Copula gezeigt. Insbesondere ist das ein Beispiel dafür, dass eine bivariate Zufallsvariable mit normalen Randverteilungen nicht bivariat normalverteilt sein muss.
Der allgemeine mehrdimensionale Fall
[Bearbeiten | Quelltext bearbeiten]Multivariate Verteilungen ordnen einem geeigneten Teilmengensystem von , dem sogenannten Ereignissystem, Wahrscheinlichkeiten zu. Typischerweise wird als Ereignissystem die Borelsche σ-Algebra auf gewählt, die mit bezeichnet wird. Aus wahrscheinlichkeitstheoretischer Sicht gilt: „Multivariate Verteilungen sind Wahrscheinlichkeitsmaße auf .“[1]
Bei Anwendungen, insbesondere im Bereich der Statistik, steht ein Zufallsvektor (eine -dimensionale Zufallsvariable), im Vordergrund, dessen Komponenten Zufallsvariablen sind. Der Zufallsvektor besitzt dann eine multivariate Verteilung, die das Bildmaß von unter ist. Dabei gilt
Verteilungsfunktion
[Bearbeiten | Quelltext bearbeiten]Die Verteilungsfunktion einer multivariaten Verteilung ist durch
definiert.[2]
Die Verteilungsfunktion eines Zufallsvektors ist durch
definiert.[3]
Besitzt der Zufallsvektor eine Dichtefunktion , dann hängen die Verteilungsfunktion und die Dichte über
zusammen.[3]
Randverteilungen
[Bearbeiten | Quelltext bearbeiten]Es gibt für Randverteilungen mehr Möglichkeiten als im zweidimensionalen Fall, da nun Randverteilungen für jede niedrigere Dimension existieren und man Möglichkeiten hat, einen -dimensionalen Teilvektor aus einem -dimensionalen Vektor auszuwählen. Beispielsweise gibt es im dreidimensionalen Fall zur Verteilung des Zufallsvektors die drei eindimensionale Randverteilungen der Komponenten , und sowie die drei zweidimensionale Randverteilungen der Teilvektoren , und .
Verteilungen von Zufallsmatrizen
[Bearbeiten | Quelltext bearbeiten]Eine Zufallsmatrix ist eine Matrix, deren Elemente Zufallsvariablen sind. Sie kann als eine Funktion aufgefasst werden. Die Verteilung einer Zufallsmatrix ordnet den (Borel-messbaren) Teilmengen von Wahrscheinlichkeiten zu.
Im Zusammenhang mit der Schätzung der Kovarianzmatrix einer -dimensionalen multivariaten Normalverteilung spielt eine -dimensionale Wishart-Verteilung eine entscheidende Rolle.[4][5] Die Wishart-Verteilung ist eine Matrix-Verallgemeinerung der Chi-Quadrat-Verteilung.[6]
Spezielle multivariate Verteilungen
[Bearbeiten | Quelltext bearbeiten]Diskrete multivariate Verteilungen
[Bearbeiten | Quelltext bearbeiten]Spezielle multivariate Verteilungen sind z. B. die Multinomialverteilung,[7] die negative Multinomialverteilung,[8] die multivariate Poissonverteilung,[9] die multivariate hypergeometrische Verteilung,[10] die multivariate Pólya-Eggenberger-Verteilung[11] und die multivariate Ewens-Verteilung[12].
Stetige multivariate Verteilungen
[Bearbeiten | Quelltext bearbeiten]Spezielle stetige multivariate Verteilungen sind z. B. die multivariate Normalverteilung,[13] verschiedene Konzepte multivariater Exponentialverteilungen,[14] Gammaverteilungen,[15] logistischer Verteilungen,[16] die multivariate Dirichlet-Verteilung,[17] die multivariate Liouville-Verteilung[18] und die multivariaten Extremwertverteilungen[19].
Literatur
[Bearbeiten | Quelltext bearbeiten]- Ludwig Fahrmeir, Alfred Hamerle (Hrsg.): Multivariate statistische Verfahren. de Gruyter, New York 1996, ISBN 3-11-008509-7.
- Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Oldenbourg, München/Wien 1999, ISBN 3-486-25287-9.
- Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. Wiley, New York 1997, ISBN 978-0-471-12844-1.
- K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. Acad. Press, New York 1979, ISBN 0-12-471250-9 (engl.).
- Samuel Kotz, Narayanaswamy Balakrishnan, Norman L. Johnson: Continuous Multivariate Distributions – Volume 1: Models and Applications. 2. Auflage. Wiley, New York 2000, ISBN 978-0-471-18387-7, doi:10.1002/0471722065.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9, S. 292.
- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9, S. 294.
- ↑ a b K. V. Mardia, J. T. Kent und J. M. Bibby: Multivariate Analysis. 1979, S. 26.
- ↑ P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Wishart-Verteilung, S. 69.
- ↑ K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. 1979, S. 69.
- ↑ K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. 1979, S. 43.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 35.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 36.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 37.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 39.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 40.
- ↑ Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 41.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 44.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 47.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 48.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 51.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 49.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 50.
- ↑ Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 53.