Der multiple Korrelationskoeffizient ist in der multivariaten Statistik ein Korrelationskoeffizient, welcher die lineare Abhängigkeit zwischen einer Zufallsvariable und einer Menge anderer Zufallsvariablen misst. Konkret bedeutet das für einen Zufallsvektor
, dass der multiple Korrelationskoeffizient die maximale Korrelation zwischen einer Zufallsvariable
für
und jeder beliebigen linearen Funktion von
ist. Als Spezialfall erhält man den multiplen Korrelationskoeffizient zwischen
und
. Im Gegensatz zu den gewöhnlichen Korrelationskoeffizienten liegt der multiple Korrelationskoeffizient zwischen
und
. Der multiple Korrelationskoeffizient wird mit
notiert.
Der multiple Korrelationskoeffizient wurde 1896 von Karl Pearson für drei Variablen eingeführt und 1897 von George Udny Yule erweitert.[1]
Sei
ein Zufallsvektor mit positiv definiter Kovarianzmatrix
und
.
Wir machen folgende Zerlegung
![{\displaystyle \mathbf {X} ={\begin{pmatrix}\mathbf {X} _{1}\\\mathbf {X} _{2}\end{pmatrix}},\qquad {\boldsymbol {\Sigma }}={\begin{pmatrix}{\boldsymbol {\Sigma }}_{11}&{\boldsymbol {\Sigma }}_{12}\\{\boldsymbol {\Sigma }}_{21}&{\boldsymbol {\Sigma }}_{22}\end{pmatrix}},\qquad \mathbf {X_{1}} =(X_{1},\dots ,X_{k})^{\mathrm {T} },\quad \mathbf {X_{2}} =(X_{k+1},\dots ,X_{n})^{\mathrm {T} }.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/42113e871cffb6e3f26ea2a4b1a0039056d2bd2d)
Der multiple Korrelationskoeffizient
zwischen
und
ist die maximale Korrelation zwischen
und jeder linearen Funktion
.
In mathematischen Formeln ausgedrückt[2]
![{\displaystyle {\overline {R}}_{i\cdot (k+1\cdots n)}:=\max \limits _{\boldsymbol {\alpha }}{\frac {\operatorname {Cov} (X_{i},{\boldsymbol {\alpha }}^{\mathrm {T} }\mathbf {X_{2}} )}{\left(\operatorname {Var} (X_{i})\operatorname {Var} ({\boldsymbol {\alpha }}^{\mathrm {T} }\mathbf {X_{2}} )\right)^{1/2}}}=\max \limits _{\boldsymbol {\alpha }}{\frac {{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\sigma }}_{i}}{(\sigma _{ii}{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}{\boldsymbol {\alpha }})^{1/2}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/57fbab8c00943cf27e778300c512e84739ee1538)
wobei
die
-te Reihe von
ist und
.
Wendet man die Cauchy-Schwarz-Ungleichung an
![{\displaystyle {\frac {{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\sigma }}_{i}}{(\sigma _{ii}{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}{\boldsymbol {\alpha }})^{1/2}}}={\frac {{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}^{1/2}{\boldsymbol {\Sigma }}_{22}^{-1/2}{\boldsymbol {\sigma }}_{i}}{(\sigma _{ii}{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}{\boldsymbol {\alpha }})^{1/2}}}\leq {\frac {\left({\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}{\boldsymbol {\alpha }}\right)^{1/2}\left({\boldsymbol {\sigma }}_{i}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\sigma }}_{i}\right)^{1/2}}{(\sigma _{ii}{\boldsymbol {\alpha }}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}{\boldsymbol {\alpha }})^{1/2}}}=\left({\frac {{\boldsymbol {\sigma }}_{i}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\sigma }}_{i}}{\sigma _{ii}}}\right)^{1/2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a7029567a787fa53f6478e92ec66373a2b3f9f6a)
so erhält man eine Obergrenze, die erreicht wird, wenn
.
Daraus folgt
[2][3]
![{\displaystyle 0\leq {\overline {R}}_{i\cdot (k+1\cdots n)}\leq 1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0fd516c4594eb43b566b54aa44b20132a97ba944)
- und
.
- Man kann zeigen, dass wenn die Regressionsfunktion
eine lineare Funktion ist, dann ist der multiple Korrelationskoeffizient gerade der Korrelationskoeffizient zwischen
und
.[3][2]
- Es gilt
wobei
[2]
Möchten wir
herleiten, das heißt den multiplen Korrelationskoeffizient zwischen
und
, dann machen wir folgende Zerlegung
![{\displaystyle \mathbf {X} ={\begin{pmatrix}X_{1}\\\mathbf {X} _{2}\end{pmatrix}},\qquad {\boldsymbol {\Sigma }}={\begin{pmatrix}\sigma _{11}&{\boldsymbol {\sigma }}_{12}^{\mathrm {T} }\\{\boldsymbol {\sigma }}_{12}&{\boldsymbol {\Sigma }}_{22}\end{pmatrix}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/591792101e981d13489cdc59be22220168622549)
da
ein
-dimensionaler Vektor ist, verzichten wir auf die Notation
.
Es gilt dann
![{\displaystyle {\overline {R}}_{1\cdot (2\cdots n)}=\left({\frac {{\boldsymbol {\sigma }}_{12}^{\mathrm {T} }{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\sigma }}_{12}}{\sigma _{11}}}\right)^{1/2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bac0741d10b74d99f8942ca5197861aa8815182a)
Seien
unabhängige Stichproben von
und
![{\displaystyle \mathbf {S} ={\frac {1}{(N-1)}}\sum \limits _{i=1}^{N}(\mathbf {X} _{i}-{\overline {\mathbf {X} }})(\mathbf {X} _{i}-{\overline {\mathbf {X} }})^{\mathrm {T} }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d8dd29281616d9ed2041767756a92c01ec862ec0)
die korrigierte Stichprobenkovarianzmatrix.
Dann machen wir folgende Zerlegung
![{\displaystyle \mathbf {S} ={\begin{pmatrix}\mathbf {S} _{11}&\mathbf {S} _{12}\\\mathbf {S} _{21}&\mathbf {S} _{22}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/54041e4d68268ee3fd2e1c95f4a721db18309fe1)
und der multiple Korrelationskoeffizient einer Stichprobe ist dann
![{\displaystyle R_{i\cdot (k+1\cdots n)}=\left({\frac {\mathbf {s} _{i}^{\mathrm {T} }{\boldsymbol {S}}_{22}^{-1}\mathbf {s} _{i}}{s_{ii}}}\right)^{1/2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6c3b3db5159a26811fc35fbcfebe6b98b92a6759)
wobei
die
-te Reihe von
ist.
Wenn eine Normalverteilung zugrunde liegt, dann ist
der Maximum-Likelihood-Schätzer von
.[3]
- ↑ Theodore Wilbur Anderson: Multivariate Analysis and Its Applications. Hrsg.: Wiley. 2003, ISBN 978-0-940600-35-5, S. 33.
- ↑ a b c d Theodore Wilbur Anderson: Multivariate Analysis and Its Applications. Hrsg.: Wiley. 2003, ISBN 978-0-940600-35-5, S. 38.
- ↑ a b c Robb J. Muirhead: Aspects of Multivariate Statistical Theory. Hrsg.: Wiley, Deutschland. 2009, S. 164–167.