Càlcul de la funció de densitat
EEl càlcul de la funció de densitat és laboriós i el separarem en 4 passos: Sigui
J
∼
χ
k
2
(
λ
)
{\displaystyle J\sim \chi _{k}^{2}(\lambda )}
.
1r. pas. Demostrarem la descomposició
J
=
D
J
1
+
J
2
,
{\displaystyle J\quad {\overset {\mathcal {D}}{=}}\quad J_{1}+J_{2},}
on
J
1
∼
χ
1
2
(
λ
)
{\displaystyle J_{1}\sim \chi _{1}^{2}(\lambda )}
,
J
2
∼
χ
k
−
1
2
{\displaystyle J_{2}\sim \chi _{k-1}^{2}}
,
J
1
{\displaystyle J_{1}}
i
J
2
{\displaystyle J_{2}}
són independents, i
=
D
{\displaystyle {\overset {\mathcal {D}}{=}}}
vol dir igualtat en distribució o llei (vegeu la pàgina Variable aleatòria ).
2n. pas. Calcularem una primera versió de la funció de densitat de
J
1
{\displaystyle J_{1}}
.
3r. pas. Reescriurem la funció de densitat que hem trobat al pas anterior i identificarem una mixtura de distribucions
χ
2
{\displaystyle \chi ^{2}}
amb diferents graus de llibertat i pesos de Poisson.
4t. pas. Ajuntant els passos 1 i 3 deduirem la densitat de
J
{\displaystyle J}
.
1r. pas. Escrivim
J
=
(
Z
1
+
μ
1
)
2
+
⋯
+
(
Z
k
+
μ
k
)
2
.
{\displaystyle J=(Z_{1}+\mu _{1})^{2}+\cdots +(Z_{k}+\mu _{k})^{2}.}
El nostre objectiu és veure que tenim
J
=
D
(
Z
1
+
λ
)
2
+
Z
2
2
+
⋯
+
Z
k
2
,
(
1
)
{\displaystyle J\quad {\overset {\mathcal {D}}{=}}\quad (Z_{1}+{\sqrt {\lambda }})^{2}+Z_{2}^{2}+\cdots +Z_{k}^{2},\quad \quad (1)}
on
λ
=
∑
j
=
1
k
μ
k
2
{\displaystyle \lambda =\sum _{j=1}^{k}\mu _{k}^{2}}
, i llavors definirem
J
1
=
(
Z
1
+
λ
)
2
∼
χ
1
2
(
λ
)
i
J
2
=
Z
2
2
+
⋯
+
Z
k
2
∼
χ
k
−
1
2
.
{\displaystyle J_{1}=(Z_{1}+{\sqrt {\lambda }})^{2}\sim \chi _{1}^{2}(\lambda )\quad {\text{i}}\quad J_{2}=Z_{2}^{2}+\cdots +Z_{k}^{2}\sim \chi _{k-1}^{2}.}
Partim de les variables
X
1
,
…
,
X
k
{\displaystyle X_{1},\dots ,X_{k}}
independents, amb
X
j
∼
N
(
μ
j
,
1
)
,
j
=
1
,
…
,
k
{\displaystyle X_{j}\sim {\mathcal {N}}(\mu _{j},1),\ j=1,\dots ,k}
. Considerem el vector aleatori normal multidimensional
X
=
(
X
1
,
…
,
X
k
)
′
∼
N
(
μ
,
I
)
,
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{k})'\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {I}}),}
on
A
′
{\displaystyle A'}
vol dir la transposada de la matriu o vector
A
{\displaystyle A}
,
μ
=
(
μ
1
,
…
,
μ
k
)
′
{\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{k})'}
i
I
{\displaystyle {\boldsymbol {I}}}
és la matriu identitat de dimensió
k
{\displaystyle k}
. Notem que
δ
=
μ
′
μ
=
‖
μ
‖
2
.
{\displaystyle \delta ={\boldsymbol {\mu }}'{\boldsymbol {\mu }}=\Vert {\boldsymbol {\mu }}\Vert ^{2}.}
Considerem una matriu ortogonal
H
{\displaystyle {\boldsymbol {H}}}
tal que la seva primera fila sigui
μ
1
/
δ
,
…
,
μ
k
/
δ
{\displaystyle \mu _{1}/{\sqrt {\delta }},\dots ,\mu _{k}/{\sqrt {\delta }}}
. Aquesta matriu pot construir-se partint del vector
μ
{\displaystyle {\boldsymbol {\mu }}}
, ampliant-ho a una base de
R
k
{\displaystyle \mathbb {R} ^{k}}
, ortonormalitzant la base pel procediment d'ortogonaització de Gramm-Schmidt i utilitzant aquests vectors com a files de la matriu. Sigui
Y
=
H
X
∼
N
(
(
λ
,
0
,
…
,
0
)
′
,
I
)
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {HX}}\sim {\mathcal {N}}{\big (}({\sqrt {\lambda }},0,\dots ,0)',{\boldsymbol {I}}{\big )}.}
Llavors, per l'ortogonalitat de la matriu
H
{\displaystyle {\boldsymbol {H}}}
,
Y
′
Y
=
X
′
X
=
J
,
{\displaystyle {\boldsymbol {Y'Y}}={\boldsymbol {X'X}}=J,}
d'on s'obté l'expressió (1).
2n. pas. Càlcul d'una primera versió de la funció de densitat de
J
1
=
(
Z
1
+
λ
)
2
{\displaystyle J_{1}=(Z_{1}+{\sqrt {\lambda }})^{2}}
. La variable aleatòria
J
1
{\displaystyle J_{1}}
és la transformació d'una variable
Y
=
(
Z
1
+
λ
)
∼
N
(
λ
,
1
)
{\displaystyle Y=(Z_{1}+{\sqrt {\lambda }})\sim {\mathcal {N}}({\sqrt {\lambda }},1)}
mitjançant la funció
h
:
R
→
[
0
,
∞
)
{\displaystyle h:\mathbb {R} \rightarrow [0,\infty )}
donada per
h
(
y
)
=
y
2
{\displaystyle h(y)=y^{2}}
; però aquesta funció no és bijectiva i cal separ-la en dues parts bijectives:
h
1
:
(
0
,
∞
)
→
(
0
,
∞
)
i
h
2
:
(
−
∞
,
0
)
→
(
0
,
∞
)
{\displaystyle h_{1}:(0,\infty )\rightarrow (0,\infty )\quad {\text{i}}\quad h_{2}:(-\infty ,0)\rightarrow (0,\infty )}
definides ambdues per
h
1
(
y
)
=
h
2
(
y
)
=
y
2
.
{\displaystyle h_{1}(y)=h_{2}(y)=y^{2}.}
Les inverses respectives són
g
1
:
(
0
,
∞
)
→
(
0
,
∞
)
i
g
2
:
(
0
,
∞
)
→
(
−
∞
,
0
)
{\displaystyle g_{1}:(0,\infty )\rightarrow (0,\infty )\quad {\text{i}}\quad g_{2}:(0,\infty )\rightarrow (-\infty ,0)}
g
1
(
x
)
=
x
i
g
2
(
x
)
=
−
x
{\displaystyle g_{1}(x)={\sqrt {x}}\quad {\text{i}}\quad g_{2}(x)=-{\sqrt {x}}}
Aleshores la funció de densitat de
J
1
{\displaystyle J_{1}}
és
f
J
1
(
x
)
=
1
2
x
1
2
π
(
e
−
(
x
−
λ
)
2
/
2
+
e
−
(
−
x
−
λ
)
2
/
2
)
=
1
2
π
x
e
−
(
x
+
λ
)
/
2
cosh
(
λ
x
)
,
x
>
0.
{\displaystyle f_{J_{1}}(x)={\frac {1}{2{\sqrt {x}}}}{\frac {1}{\sqrt {2\pi }}}{\Big (}e^{-({\sqrt {x}}-{\sqrt {\lambda }})^{2}/2}+e^{-(-{\sqrt {x}}-{\sqrt {\lambda }})^{2}/2}{\Big )}={\frac {1}{\sqrt {2\pi x}}}e^{-(x+\lambda )/2}\cosh {\big (}{\sqrt {\lambda x}}{\big )},\quad x>0.}
3r. pas. Identificació de la distribució
J
1
{\displaystyle J_{1}}
de com una mixtura de distribucions
χ
2
{\displaystyle \chi ^{2}}
amb pesos donats per una distribució de Poisson.
Designarem per
f
Y
n
(
x
)
{\displaystyle f_{Y_{n}}(x)}
la funció de densitat d'una distribució
χ
n
2
{\displaystyle \chi _{n}^{2}}
. Notem que per una distribució
χ
1
+
2
j
2
,
j
=
0
,
1
,
2
,
…
{\displaystyle \chi _{1+2j}^{2},\ j=0,1,2,\dots }
tenim
f
Y
1
+
2
j
(
x
)
=
x
−
1
/
2
+
j
e
−
x
/
2
2
1
/
2
+
j
Γ
(
1
/
2
+
j
)
=
1
2
π
x
x
j
e
−
x
/
2
2
j
1
⋅
3
⋯
(
2
j
−
1
)
,
x
>
0.
{\displaystyle f_{Y_{1+2j}}(x)={\frac {x^{-1/2+j}e^{-x/2}}{2^{1/2+j}\,\Gamma (1/2+j)}}={\frac {1}{\sqrt {2\pi x}}}\,{\frac {x^{j}e^{-x/2}}{2^{j}\,1\cdot 3\cdots (2j-1)}},\quad x>0.}
D'altra banda, el desenvolupament en sèrie de Taylor del cosinus hiperbòlic és
cosh
y
=
1
+
y
2
2
!
+
y
4
4
!
+
⋯
=
∑
j
=
0
∞
y
2
j
(
2
j
)
!
.
{\displaystyle \cosh y=1+{\frac {y^{2}}{2!}}+{\frac {y^{4}}{4!}}+\dots =\sum _{j=0}^{\infty }{\frac {y^{2j}}{(2j)!}}.}
Aleshores,
cosh
(
λ
x
)
=
∑
j
=
0
∞
λ
j
x
j
(
2
j
)
!
=
∑
j
=
0
∞
λ
j
x
j
2
j
j
!
1
⋅
3
⋯
(
2
j
−
1
)
=
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
x
j
2
j
1
⋅
3
⋯
(
2
j
−
1
)
.
{\displaystyle \cosh {\big (}{\sqrt {\lambda x}}{\big )}=\sum _{j=0}^{\infty }{\frac {\lambda ^{j}x^{j}}{(2j)!}}=\sum _{j=0}^{\infty }{\frac {\lambda ^{j}x^{j}}{2^{j}j!\,1\cdot 3\cdots (2j-1)}}=\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}{\frac {x^{j}}{2^{j}\,1\cdot 3\cdots (2j-1)}}.}
Per tant,
f
J
1
(
x
)
=
1
2
π
x
e
−
(
x
+
λ
)
/
2
cosh
(
λ
x
)
=
e
−
λ
/
2
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
1
2
π
x
x
j
e
−
x
/
2
2
j
1
⋅
3
⋯
(
2
j
−
1
)
=
e
−
λ
/
2
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
f
Y
1
+
2
j
(
x
)
.
{\displaystyle f_{J_{1}(x)}={\frac {1}{\sqrt {2\pi x}}}e^{-(x+\lambda )/2}\cosh {\big (}{\sqrt {\lambda x}}{\big )}=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {1}{\sqrt {2\pi x}}}\,{\frac {x^{j}e^{-x/2}}{2^{j}\,1\cdot 3\cdots (2j-1)}}=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,f_{Y_{1+2j}}(x).}
En conseqüència,
J
1
{\displaystyle J_{1}}
és una mixtura de distribucions
χ
1
+
2
j
2
,
j
=
0
,
1
,
2
,
…
{\displaystyle \chi _{1+2j}^{2},\ j=0,1,2,\dots }
amb pesos donats per una distribució de Poisson de paràmetre
λ
/
2
{\displaystyle \lambda /2}
.
4t. pas. Càlcul de la funció de densitat de
J
{\displaystyle J}
. Utilitzarem les propietats de la funció generatriu de moments (també es podria fer de manera anàloga amb les funcions característiques). Designarem per
M
Y
n
{\displaystyle M_{Y_{n}}}
la funció generatriu d'una variable aleatòria
Y
n
∼
χ
n
2
{\displaystyle Y_{n}\sim \chi _{n}^{2}}
:
M
Y
n
(
t
)
=
E
[
e
t
Y
n
]
=
1
(
1
−
2
t
)
n
/
2
,
t
∈
(
−
∞
,
1
/
2
)
.
{\displaystyle M_{Y_{n}}(t)=E[e^{tY_{n}}]={\frac {1}{(1-2t)^{n/2}}},\quad t\in (-\infty ,1/2).}
Escrivim
p
j
=
e
−
λ
/
2
(
λ
/
2
)
j
j
!
,
j
=
0
,
1
,
…
{\displaystyle p_{j}=e^{-\lambda /2}\,{\frac {(\lambda /2)^{j}}{j!}},\ j=0,1,\dots }
els pesos donats per una distribució de Poisson de paràmetre
λ
/
2
{\displaystyle \lambda /2}
. Per les propietats de les mixtures de distribucions, la funció generatriu de moments de
J
1
{\displaystyle J_{1}}
és
M
J
1
(
t
)
=
∑
j
=
0
∞
p
j
M
Y
1
+
2
j
(
t
)
.
{\displaystyle M_{J_{1}}(t)=\sum _{j=0}^{\infty }p_{j}M_{Y_{1+2j}}(t).}
Donada la independència entre
J
1
{\displaystyle J_{1}}
i
J
2
{\displaystyle J_{2}}
(vegeu el primer pas), tindrem que
M
J
(
t
)
=
M
J
1
(
t
)
M
J
2
(
t
)
,
{\displaystyle M_{J}(t)=M_{J_{1}}(t)\,M_{J_{2}}(t),}
i atès que
J
2
∼
χ
k
−
1
2
{\displaystyle J_{2}\sim \chi _{k-1}^{2}}
,
M
J
2
=
M
Y
k
−
1
{\displaystyle M_{J_{2}}=M_{Y_{k-1}}}
. Fent les operacions corresponents arribem a que
M
J
(
t
)
=
∑
j
=
0
∞
p
j
M
Y
k
+
2
j
(
t
)
.
{\displaystyle M_{J}(t)=\sum _{j=0}^{\infty }p_{j}M_{Y_{k+2j}}(t).}
Per tant, identifiquem una mixtura de distribucions
χ
k
+
2
j
2
,
j
=
0
,
1
,
2
,
…
{\displaystyle \chi _{k+2j}^{2},\ j=0,1,2,\dots }
amb pesos donats per una distribució de Poisson de paràmetre
λ
/
2
{\displaystyle \lambda /2}
. Llavors, la funció de densitat de
J
{\displaystyle J}
és
f
J
(
x
)
=
e
−
λ
/
2
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
f
Y
k
+
2
j
(
x
)
.
{\displaystyle f_{J}(x)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,f_{Y_{k+2j}}(x).}
Expressió alternativa de la funció de densitat. Si desenvolupem
f
k
+
2
j
{\displaystyle f_{k+2j}}
tenim que la funció de densitat té l'expressió
f
J
(
x
)
=
e
−
λ
/
2
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
x
k
/
2
+
j
−
1
e
−
x
/
2
2
k
/
2
+
j
Γ
(
k
/
2
+
j
)
,
{\displaystyle f_{J}(x)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {x^{k/2+j-1}\,e^{-x/2}}{2^{k/2+j}\,\Gamma (k/2+j)}},}
que es pot escriure
f
J
(
x
)
=
1
2
e
−
(
x
+
λ
)
/
2
(
x
λ
)
k
/
4
−
1
/
2
I
k
/
2
−
1
(
λ
x
)
,
{\displaystyle f_{J}(x)={\frac {1}{2}}\,e^{-(x+\lambda )/2}{\Big (}{\frac {x}{\lambda }}{\Big )}^{k/4-1/2}\,I_{k/2-1}({\sqrt {\lambda x}}),}
on
I
α
(
y
)
{\displaystyle I_{\alpha }(y)}
és la funció modificada de Bessel de primer tipus, que en aquest cas és
I
k
/
2
−
1
(
y
)
=
(
y
2
)
k
/
2
−
1
∑
j
=
0
∞
(
y
2
/
4
)
j
j
!
Γ
(
k
/
2
+
j
)
.
{\displaystyle I_{k/2-1}(y)={\Big (}{\frac {y}{2}}{\Big )}^{k/2-1}\sum _{j=0}^{\infty }{\frac {(y^{2}/4)^{j}}{j!\,\Gamma (k/2+j)}}.}
Moments, funció generatriu de moments i funció característica
modifica
Els moments es poden calcular utilitzant les propietats de les mixtures de distribucions. Sigui
J
∼
χ
k
2
(
λ
)
{\displaystyle J\sim \chi _{k}^{2}(\lambda )}
i
Y
q
∼
χ
2
(
q
)
{\displaystyle Y_{q}\sim \chi ^{2}(q)}
. Designem per
p
j
{\displaystyle p_{j}}
els pesos donats per una distribució de Poisson de paràmetre
λ
/
2
{\displaystyle \lambda /2}
:
p
j
=
e
−
λ
/
2
(
λ
/
2
)
j
j
!
,
j
=
0
,
1
,
…
{\displaystyle p_{j}=e^{-\lambda /2}\,{\frac {(\lambda /2)^{j}}{j!}},\ j=0,1,\dots }
Aleshores, atès que una distribució khi-quadrat té moments de tots els ordres, tindrem que la distribució khi-quadrat no central també, i
E
[
J
n
]
=
∑
j
=
0
∞
p
j
E
[
Y
k
+
2
j
n
]
.
{\displaystyle E{\big [}J^{n}{\big ]}=\sum _{j=0}^{\infty }p_{j}\,E{\big [}Y_{k+2j}^{n}{\big ]}.}
Per exemple, per a
n
=
1
{\displaystyle n=1}
,
E
[
Y
q
]
=
q
{\displaystyle E[Y_{q}]=q}
i llavors
E
[
J
]
=
∑
j
=
0
∞
p
j
(
k
+
2
j
)
=
k
∑
j
=
0
∞
p
j
+
2
∑
j
=
0
∞
j
p
j
=
k
+
2
λ
2
=
k
+
λ
.
{\displaystyle E[J]=\sum _{j=0}^{\infty }p_{j}(k+2j)=k\sum _{j=0}^{\infty }p_{j}+2\sum _{j=0}^{\infty }jp_{j}=k+2\,{\frac {\lambda }{2}}=k+\lambda .}
La funció generatriu de moments també es pot calcular de la mateixa forma: Designem per
M
Y
{\displaystyle M_{Y}}
la funció generatriu de moments d'una variable aleatòria
Y
{\displaystyle Y}
,
M
Y
(
t
)
=
E
[
e
t
Y
]
.
{\displaystyle M_{Y}(t)=E[e^{tY}].}
Si
Y
q
∼
χ
2
(
q
)
{\displaystyle Y_{q}\sim \chi ^{2}(q)}
,
M
Y
q
(
t
)
=
1
(
1
−
2
t
)
q
/
2
,
t
∈
(
−
∞
,
1
/
2
)
.
{\displaystyle M_{Y_{q}}(t)={\frac {1}{(1-2t)^{q/2}}},\ t\in (-\infty ,1/2).}
Llavors, per a
t
∈
(
−
∞
,
1
/
2
)
{\displaystyle t\in (-\infty ,1/2)}
,
M
J
(
t
)
=
∑
j
=
0
∞
p
j
M
k
+
2
j
(
t
)
=
e
−
λ
/
2
∑
j
=
0
∞
(
λ
/
2
)
j
j
!
1
(
1
−
2
t
)
k
/
2
+
j
=
e
−
λ
/
2
(
1
−
2
t
)
k
/
2
∑
j
=
0
∞
1
j
!
(
λ
2
(
1
−
2
t
)
)
j
=
e
λ
t
/
(
1
−
2
t
)
(
1
−
2
t
)
k
/
2
.
{\displaystyle M_{J}(t)=\sum _{j=0}^{\infty }p_{j}\,M_{k+2j}(t)=e^{-\lambda /2}\sum _{j=0}^{\infty }{\frac {(\lambda /2)^{j}}{j!}}\,{\frac {1}{(1-2t)^{k/2+j}}}={\frac {e^{-\lambda /2}}{(1-2t)^{k/2}}}\,\sum _{j=0}^{\infty }{\frac {1}{j!}}\,{\bigg (}{\frac {\lambda }{2(1-2t)}}{\bigg )}^{j}={\frac {e^{\lambda t/(1-2t)}}{(1-2t)^{k/2}}}.}
Anàlogament, la funció característica dóna
φ
J
(
t
)
=
e
i
λ
t
/
(
1
−
2
i
t
)
(
1
−
2
i
t
)
k
/
2
.
{\displaystyle \varphi _{J}(t)={\frac {e^{i\lambda t/(1-2it)}}{(1-2it)^{k/2}}}.}
Aquesta propietat, que té interès per ella mateixa, és el fonament de la utilització de la distribució
χ
k
2
(
λ
)
{\displaystyle \chi _{k}^{2}(\lambda )}
en l'estudi de la potència d'un test sobre la mitjana d'una població normal multivariable, segon veurem en un exemple.
Propietat. Considerem un vector aleatori normal multivariable
X
∼
N
k
(
μ
,
Σ
)
{\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}
amb
det
(
Σ
)
>
0
{\displaystyle {\text{det}}({\boldsymbol {\Sigma }})>0}
. Aleshores [1] :
(
X
−
μ
)
′
Σ
−
1
(
X
−
μ
)
∼
χ
k
2
{\displaystyle {\boldsymbol {(X-\mu )'\Sigma ^{-1}(X-\mu )}}\sim \chi _{k}^{2}}
.
X
′
Σ
−
1
X
∼
χ
k
2
(
λ
)
{\displaystyle {\boldsymbol {X'\Sigma ^{-1}X}}\sim \chi _{k}^{2}(\lambda )}
, amb
λ
=
μ
′
Σ
−
1
μ
{\displaystyle \lambda ={\boldsymbol {\mu '\Sigma ^{-1}\mu }}}
.
Prova
1. Existeix una única matriu definida positiva
Σ
1
/
2
{\displaystyle {\boldsymbol {\Sigma }}^{1/2}}
tal que
(
Σ
1
/
2
)
2
=
Σ
{\displaystyle {\boldsymbol {(}}\Sigma ^{1/2})^{2}={\boldsymbol {\Sigma }}}
[2] anomenada arrel quadrada de
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
; designem per
Σ
−
1
/
2
{\displaystyle {\boldsymbol {\Sigma }}^{-1/2}}
la seva inversa
[3] . Per les propietats de les lleis normals multivariables,
U
=
Σ
−
1
/
2
(
X
−
μ
)
∼
N
d
(
0
,
I
d
)
.
{\displaystyle {\boldsymbol {U}}={\boldsymbol {\Sigma }}^{-1/2}{\big (}{\boldsymbol {X}}-{\boldsymbol {\mu }}{\big )}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d}).}
Llavors,
(
X
−
μ
)
′
Σ
−
1
(
X
−
μ
)
=
U
′
U
∼
χ
k
2
.
{\displaystyle {\boldsymbol {(X-\mu )'\Sigma ^{-1}(X-\mu )}}={\boldsymbol {U'U}}\sim \chi _{k}^{2}.}
2. Ara definim
V
=
Σ
−
1
/
2
X
∼
N
d
(
Σ
−
1
/
2
μ
,
I
d
)
.
{\displaystyle {\boldsymbol {V}}={\boldsymbol {\Sigma }}^{-1/2}{\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\Sigma ^{-1/2}\mu }},{\boldsymbol {I}}_{d}).}
Llavors,
X
′
Σ
−
1
X
=
V
′
V
∼
χ
k
2
(
λ
)
,
{\displaystyle {\boldsymbol {X'\Sigma ^{-1}X}}={\boldsymbol {V'V}}\sim \chi _{k}^{2}(\lambda ),}
amb
λ
=
(
Σ
−
1
/
2
μ
)
′
(
Σ
−
1
/
2
μ
)
=
μ
′
Σ
−
1
μ
.
{\displaystyle \lambda ={\bigg (}{\boldsymbol {\Sigma ^{-1/2}\mu }}{\bigg )}'{\bigg (}{\boldsymbol {\Sigma ^{-1/2}\mu }}{\bigg )}={\boldsymbol {\mu '\Sigma ^{-1}\mu }}.}
Exemple. Muirhead [1] . Considerem un contrast d'hipòtesis sobre la mitjana d'una població normal multivariable amb matriu de variàncies-covariàncies coneguda. Sigui
X
1
,
…
,
X
n
{\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{n}}
una mostra d'una distribució
N
k
(
μ
,
Σ
)
{\displaystyle {\mathcal {N}}_{k}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}
. Llavors
X
¯
=
1
n
∑
i
=
1
n
X
i
∼
N
k
(
μ
,
1
n
Σ
)
.
{\displaystyle {\overline {\boldsymbol {X}}}={\frac {1}{n}}\sum _{i=1}^{n}{\boldsymbol {X}}_{i}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }},\,{\frac {1}{n}}{\boldsymbol {\Sigma }}).}
Fixem
μ
0
∈
R
k
{\displaystyle {\boldsymbol {\mu }}_{0}\in \mathbb {R} ^{k}}
. Anem a fer el contrast
H
0
:
μ
=
μ
0
contra
H
1
:
μ
≠
μ
0
.
{\displaystyle {\text{H}}_{0}:\ {\boldsymbol {\mu }}={\boldsymbol {\mu }}_{0}\quad {\text{contra}}\quad {\text{H}}_{1}:\ {\boldsymbol {\mu }}\neq {\boldsymbol {\mu }}_{0}.}
Com a estadístic de contrast utilitzarem
W
=
(
X
−
μ
0
)
′
Σ
−
1
(
X
−
μ
0
)
.
{\displaystyle W={\boldsymbol {(X-\mu _{0})'\Sigma ^{-1}(X-\mu _{0})}}.}
Fixem un nivell de significació del test
α
.
{\displaystyle \alpha .}
Atès que, per la primera part de la propietat anterior, sota
H
0
{\displaystyle {\text{H}}_{0}}
,
W
∼
χ
k
2
{\displaystyle W\sim \chi _{k}^{2}}
, rebutjarem
H
0
{\displaystyle {\text{H}}_{0}}
si
W
>
C
α
,
{\displaystyle W>C_{\alpha },}
on
C
α
{\displaystyle C_{\alpha }}
és el nombre tal que
P
(
χ
k
2
>
C
α
)
=
α
.
{\displaystyle P(\chi _{k}^{2}>C_{\alpha })=\alpha .}
Si
H
0
{\displaystyle {\text{H}}_{0}}
no és veritat,
X
¯
−
μ
0
∼
N
k
(
μ
−
μ
0
,
1
n
Σ
)
.
{\displaystyle {\overline {\boldsymbol {X}}}-{\boldsymbol {\mu }}_{0}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0},\,{\frac {1}{n}}{\boldsymbol {\Sigma }}).}
Per tant, per la segona part de la propietat anterior,
W
∼
χ
k
2
(
λ
)
,
amb
λ
=
n
(
μ
−
μ
0
)
′
Σ
−
1
(
μ
−
μ
0
)
.
{\displaystyle W\sim \chi _{k}^{2}(\lambda ),\quad {\text{amb}}\quad \lambda =n({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {\mu }}-{\boldsymbol {\mu }}_{0}).}
Per tant, la potència del test és funció de
λ
{\displaystyle \lambda }
:
β
(
λ
)
=
P
λ
(
W
>
C
)
=
P
(
χ
k
2
(
λ
)
>
C
α
)
.
{\displaystyle \beta (\lambda )=P_{\lambda }(W>C)=P{\big (}\chi _{k}^{2}(\lambda )>C_{\alpha }{\big )}.}
↑ 1,0 1,1 Muirhead , Robb John. Aspects of multivariate statistical theory . Hoboken, N.J: Wiley-Interscience, 2005, p. 26-27. ISBN 978-0-471-76985-9 .
↑ Seber , George Arthur Frederick. A matrix handbook for statisticians . Hoboken (N.J.): J. Wiley, 2008, p. 221. ISBN 978-0-471-74869-4 .
↑ No hi ha ambigüitat en la notació ja que
(
Σ
1
/
2
)
−
1
=
(
Σ
−
1
)
1
/
2
{\displaystyle ({\boldsymbol {\Sigma }}^{1/2})^{-1}=({\boldsymbol {\Sigma }}^{-1})^{1/2}}
. Vegeu la referència anterior Seber, 2008, pàgina 221, item 10.8 (f)