Sigui
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
un vector aleatori de dimensió
d
{\displaystyle d}
, és a dir, una aplicació
X
=
(
X
1
,
…
,
X
d
)
:
Ω
→
R
d
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d}):\Omega \to \mathbb {R} ^{d}}
tal que cada component
X
j
,
j
=
1
,
…
,
d
{\displaystyle X_{j},\ j=1,\dots ,d}
és una variable aleatòria. La seva funció característica és l'aplicació
φ
X
:
R
d
→
C
{\displaystyle \varphi _{\boldsymbol {X}}:\mathbb {R} ^{d}\to \mathbb {C} }
definida per
φ
X
(
t
1
,
…
,
t
d
)
=
E
[
e
i
(
t
1
X
1
+
⋯
+
t
d
X
d
)
]
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=E[e^{i(t_{1}X_{1}+\cdots +t_{d}X_{d})}],\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Amb notació vectorial, si designem per
<
s
,
t
>=
∑
j
=
1
d
s
j
t
j
{\textstyle <{\boldsymbol {s}},{\boldsymbol {t}}>=\sum _{j=1}^{d}s_{j}t_{j}}
el producte escalar ordinari de dos vectors
s
=
(
s
1
,
…
,
s
d
)
i
t
=
(
t
1
,
…
,
t
d
)
{\displaystyle {\boldsymbol {s}}=(s_{1},\dots ,s_{d})\ {\text{i}}\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})}
,
φ
X
(
t
)
=
E
[
e
i
<
t
,
X
>
]
,
t
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=E[e^{i\,<{\boldsymbol {t}},{\boldsymbol {X}}>}],\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.}
Quan no hi hagi confusió, escriurem
φ
{\displaystyle \varphi }
en lloc de
φ
X
{\displaystyle \varphi _{\boldsymbol {X}}}
.
Càlcul de la funció característica
modifica
Sigui
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
un vector aleatori discret amb funció de probabilitat
p
X
(
x
1
,
…
,
x
d
)
{\displaystyle p_{\boldsymbol {X}}(x_{1},\dots ,x_{d})}
. Aleshores la seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
∑
x
1
,
…
,
x
d
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
p
X
(
x
1
,
…
,
x
d
)
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\sum _{x_{1},\dots ,x_{d}}e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,p_{\boldsymbol {X}}(x_{1},\dots ,x_{d}),\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Si
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
és un vector aleatori amb funció de densitat
f
X
(
x
1
,
…
,
x
d
)
{\displaystyle f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})}
. Aleshores la seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
∫
−
∞
∞
⋯
∫
−
∞
∞
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
f
X
(
x
1
,
…
,
x
d
)
d
x
1
⋯
d
x
d
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})\,dx_{1}\cdots dx_{d},\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Les propietats de les funcions característiques unidimensionals es trasllades al cas vectorial. Les següents propietats es troben a Sato ; per a les demostracions completes vegeu Cuppens.
φ
(
0
)
=
1
{\displaystyle \varphi ({\boldsymbol {0}})=1}
, on
0
=
(
0
,
…
,
0
)
{\displaystyle {\boldsymbol {0}}=(0,\dots ,0)}
.
|
φ
(
t
)
|
≤
1
,
∀
t
∈
R
d
{\displaystyle \vert \varphi ({\boldsymbol {t}})\vert \leq 1,\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d}}
.
la funció
φ
{\displaystyle \varphi }
és uniformement contínua.
La funció
φ
{\displaystyle \varphi }
és hermítica:
φ
(
−
t
)
=
φ
(
t
)
¯
.
{\displaystyle \varphi (-{\boldsymbol {t}})={\overline {\varphi ({\boldsymbol {t}})}}.}
Per aquesta propietat és convenient escriure tots els vectors en columna, tal com és habitual en Algebra lineal . Designarem per
U
′
{\displaystyle {\boldsymbol {U}}'}
la transposada d'una matriu (o vector)
U
{\displaystyle {\boldsymbol {U}}}
. Sigui
X
=
(
X
1
,
…
,
X
d
)
′
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'}
un vector aleatori,
b
=
(
b
1
,
…
,
b
k
)
′
{\displaystyle {\boldsymbol {b}}=(b_{1},\dots ,b_{k})'}
un vector d'escalars i
A
{\displaystyle {\boldsymbol {A}}}
una matriu
k
×
d
{\displaystyle k\times d}
. Definim
Y
=
A
X
+
b
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {A\,X}}+{\boldsymbol {b}}.}
Aleshores,
φ
Y
(
t
)
=
e
i
<
t
,
b
>
φ
X
(
A
′
t
)
=
e
i
t
′
b
φ
X
(
A
′
t
)
,
t
=
(
t
1
,
…
,
t
k
)
′
∈
R
k
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,<{\boldsymbol {t}},{\boldsymbol {b}}>}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {b}}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}}),\quad {\boldsymbol {t}}=(t_{1},\dots ,t_{k})'\in \mathbb {R} ^{k}.}
Teorema d'inversió. Necessitem algunes notacions: Recordem que un conjunt
B
∈
B
(
R
d
)
{\displaystyle B\in {\mathcal {B}}(\mathbb {R} ^{d})}
, on
B
(
R
d
)
{\displaystyle {\mathcal {B}}(\mathbb {R} ^{d})}
és la
σ
{\displaystyle \sigma }
-àlgebra de Borel sobre
R
d
{\displaystyle \mathbb {R} ^{d}}
, es diu que és un conjunt de continuïtat de (la distribució de)
X
{\displaystyle {\boldsymbol {X}}}
si
P
(
X
∈
∂
B
)
=
0
{\displaystyle P(X\in \partial B)=0}
, on
∂
B
{\displaystyle \partial B}
és la frontera de
B
{\displaystyle B}
. Donats dos vectors,
a
=
(
a
1
,
…
,
a
d
)
i
b
=
(
b
1
,
…
,
b
d
)
{\displaystyle {\boldsymbol {a}}=(a_{1},\dots ,a_{d})\ {\text{i}}\ {\boldsymbol {b}}=(b_{1},\dots ,b_{d})}
escriurem
a
<
b
{\displaystyle {\boldsymbol {a}}<{\boldsymbol {b}}}
(respectivament
a
≤
b
{\displaystyle {\boldsymbol {a}}\leq {\boldsymbol {b}}}
) si
a
j
<
b
j
,
j
=
1
,
…
,
d
{\displaystyle a_{j}<b_{j},\ j=1,\dots ,d}
(respectivament
a
j
≤
b
j
,
j
=
1
,
…
,
d
{\displaystyle a_{j}\leq b_{j},\ j=1,\dots ,d}
). Si
a
≤
b
{\displaystyle {\boldsymbol {a}}\leq {\boldsymbol {b}}}
designarem per
(
a
,
b
)
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})}
el conjunt
(
a
,
b
)
=
{
x
∈
R
d
:
a
<
x
<
b
}
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})=\{{\boldsymbol {x}}\in \mathbb {R} ^{d}:\ {\boldsymbol {a}}<{\boldsymbol {x}}<{\boldsymbol {b}}\}}
; de manera anàloga es defineix
[
a
,
b
]
{\displaystyle [{\boldsymbol {a}},{\boldsymbol {b}}]}
. Si
(
a
,
b
)
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})}
és un conjunt de continuïtat de
X
{\displaystyle {\boldsymbol {X}}}
, aleshores
P
(
X
∈
(
a
,
b
)
)
=
1
(
2
π
)
d
lim
τ
1
→
∞
⋯
lim
τ
d
→
∞
∫
−
τ
1
τ
1
⋯
∫
−
τ
d
τ
d
∏
j
=
1
d
e
−
i
t
j
a
j
−
e
i
t
j
b
j
i
t
j
φ
(
t
1
,
…
,
t
d
)
d
t
1
⋯
d
t
d
.
{\displaystyle P{\big (}X\in ({\boldsymbol {a}},{\boldsymbol {b}}){\big )}={\frac {1}{(2\pi )^{d}}}\lim _{\tau _{1}\to \infty }\cdots \lim _{\tau _{d}\to \infty }\int _{-\tau _{1}}^{\tau _{1}}\cdots \int _{-\tau _{d}}^{\tau _{d}}\prod _{j=1}^{d}{\frac {e^{-it_{j}a_{j}}-e^{it_{j}b_{j}}}{it_{j}}}\,\varphi (t_{1},\dots ,t_{d})\,dt_{1}\cdots dt_{d}.}
Teorema d'unicitat. si
X
{\displaystyle {\boldsymbol {X}}}
i
Y
{\displaystyle {\boldsymbol {Y}}}
són dos vectors aleatoris, amb funcions característiques
φ
X
{\displaystyle \varphi _{\boldsymbol {X}}}
i
φ
Y
{\displaystyle \varphi _{\boldsymbol {Y}}}
respectivament, tals que
φ
X
(
t
)
=
φ
Y
(
t
)
,
∀
t
∈
R
d
,
{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=\varphi _{\boldsymbol {Y}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},}
aleshores
X
{\displaystyle {\boldsymbol {X}}}
i
Y
{\displaystyle {\boldsymbol {Y}}}
tenen la mateixa distribució .
Funció característica i independència. Els vectors aleatoris
d
{\displaystyle d}
-dimensionals
X
1
,
…
,
X
k
{\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k}}
són independents si i només si
φ
(
X
1
,
…
,
X
k
)
(
t
1
,
…
,
t
k
)
=
φ
X
1
(
t
1
)
⋯
φ
X
k
(
t
k
)
,
∀
t
1
,
…
,
t
k
∈
R
d
.
{\displaystyle \varphi _{({\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k})}({\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}}_{1})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}_{k}),\quad \forall {\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k}\in \mathbb {R} ^{d}.}
Funció característica i suma de vectors aleatoris independents. Siguin
X
1
,
…
,
X
k
{\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k}}
vectors aleatoris
d
{\displaystyle d}
-dimensionals independents i posem
Y
=
X
1
+
⋯
+
X
k
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {X}}_{1}+\cdots +{\boldsymbol {X}}_{k}.}
Aleshores
φ
Y
(
t
)
=
φ
X
1
(
t
)
⋯
φ
X
k
(
t
)
,
∀
t
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d}.}
Funció característica i moments. Recordem que es diu que un vector aleatori
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
té moment d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
, on
n
1
≥
0
,
…
,
n
d
≥
0
{\displaystyle n_{1}\geq 0,\dots ,n_{d}\geq 0}
, si
E
[
|
X
1
n
1
⋯
X
d
n
d
|
]
<
∞
{\displaystyle E{\big [}{\big \vert }X_{1}^{n_{1}}\cdots X_{d}^{n_{d}}{\big \vert }{\big ]}<\infty }
, i, en aquest cas, es defineix el moment d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
per
m
n
1
,
…
,
n
d
=
E
[
X
1
n
1
⋯
X
d
n
d
]
.
{\displaystyle m_{n_{1},\dots ,n_{d}}=E{\big [}X_{1}^{n_{1}}\cdots X_{d}^{n_{d}}{\big ]}.}
Si el vector aleatori
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
compleix que
E
[
‖
X
‖
m
]
<
∞
{\displaystyle E{\big [}\Vert {\boldsymbol {X}}\Vert ^{m}{\big ]}<\infty }
, on
‖
x
‖
=
∑
j
=
1
d
x
j
2
{\textstyle \Vert {\boldsymbol {x}}\Vert ={\sqrt {\sum _{j=1}^{d}x_{j}^{2}}}}
és la norma d'un vector
x
{\displaystyle {\boldsymbol {x}}}
, aleshores la funció característica
φ
{\displaystyle \varphi }
és de classe
C
m
{\displaystyle {\mathcal {C}}^{m}}
i per a qualsevol
n
1
,
…
,
n
d
≥
0
{\displaystyle n_{1},\dots ,n_{d}\geq 0}
, amb
∑
j
=
1
d
n
j
≤
m
{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}
,
E
(
X
1
n
1
⋯
X
k
n
d
)
=
1
i
n
1
+
⋯
+
n
d
∂
n
1
+
⋯
+
n
d
∂
t
1
n
1
⋯
∂
t
k
n
d
φ
(
t
1
…
,
t
d
)
|
t
1
=
0
,
…
,
t
d
=
0
.
{\displaystyle E(X_{1}^{n_{1}}\cdots X_{k}^{n_{d}})={\frac {1}{i^{n_{1}+\cdots +n_{d}}}}\,{\frac {\partial ^{n_{1}+\cdots +n_{d}}}{\partial t_{1}^{n_{1}}\cdots \partial t_{k}^{n_{d}}}}\,\varphi (t_{1}\dots ,t_{d}){\Big \vert }_{t_{1}=0,\dots ,t_{d}=0}.}
Recíprocament, si la funció característica
φ
{\displaystyle \varphi }
és de classe
C
m
{\displaystyle {\mathcal {C}}^{m}}
per a
m
{\displaystyle m}
parell , aleshores el vector
X
{\displaystyle {\boldsymbol {X}}}
té moments d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
per qualsevol
n
1
,
…
,
n
d
≥
0
{\displaystyle n_{1},\dots ,n_{d}\geq 0}
, amb
∑
j
=
1
d
n
j
≤
m
{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}
.
Funció característica i convergència en distribució. Sigui
(
X
n
)
n
∈
N
{\displaystyle ({\boldsymbol {X}}_{n})_{n\in \mathbb {N} }}
una successió de vectors aleatoris
d
{\displaystyle d}
-dimensionals. Designem per
φ
X
n
{\displaystyle \varphi _{{\boldsymbol {X}}_{n}}}
la funció característica del vector
X
n
{\displaystyle {\boldsymbol {X}}_{n}}
. Aleshores la successió convergeix en distribució a un vector aleatori
X
{\displaystyle {\boldsymbol {X}}}
si i només si
∀
t
∈
R
d
,
φ
X
n
(
t
)
→
ϕ
(
t
)
,
quan
n
→
∞
,
{\displaystyle \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},\ \varphi _{{\boldsymbol {X}}_{n}}({\boldsymbol {t}})\to \phi ({\boldsymbol {t}}),\ {\text{quan}}\ n\to \infty ,}
on
ϕ
:
R
d
→
C
{\displaystyle \phi :\mathbb {R} ^{d}\to \mathbb {C} }
és una funció contínua en
0
{\displaystyle {\boldsymbol {0}}}
. En aquest cas,
ϕ
{\displaystyle \phi }
és la funció característica de
X
{\displaystyle {\boldsymbol {X}}}
Considerem un experiment que pot tenir
d
{\displaystyle d}
resultats diferents, que designarem per
R
1
,
…
,
R
d
{\displaystyle R_{1},\dots ,R_{d}}
, amb probabilitats
p
1
,
…
,
p
d
∈
(
0
,
1
)
{\displaystyle p_{1},\dots ,p_{d}\in (0,1)}
,
p
1
+
⋯
+
p
d
=
1
{\displaystyle p_{1}+\cdots +p_{d}=1}
. Fem
n
{\displaystyle n}
repeticions independents i denotem per
X
1
{\displaystyle X_{1}}
el nombre de vegades que obtenim el resultat
R
1
{\displaystyle R_{1}}
, per
X
2
{\displaystyle X_{2}}
el nombre de vegades que obtenim el resultat
R
2
{\displaystyle R_{2}}
, i així successivament. Aleshores la probabilitat d'obtenir
x
1
{\displaystyle x_{1}}
vegades el resultat
R
1
{\displaystyle R_{1}}
,
x
2
{\displaystyle x_{2}}
vegades el resultat
R
2
{\displaystyle R_{2}}
, etc. amb
x
1
+
⋯
+
x
n
=
n
{\displaystyle x_{1}+\cdots +x_{n}=n}
és
p
(
X
1
,
…
,
X
d
)
(
x
1
,
…
,
x
d
)
=
P
(
X
1
=
x
1
,
…
,
X
d
=
x
d
)
=
n
!
x
1
!
⋯
x
d
!
p
1
x
1
⋯
p
d
x
d
.
{\displaystyle p_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,x_{d})=P(X_{1}=x_{1},\dots ,X_{d}=x_{d})={\frac {n!}{x_{1}!\cdots x_{d}!}}\,p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}.}
Es diu que el vector
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
segueix una distribució multinomial [3] [4] de paràmetres
n
,
p
1
,
…
,
p
d
{\displaystyle n,p_{1},\dots ,p_{d}}
, i s'escriu
X
∼
M
(
n
;
p
1
,
…
,
p
d
)
{\displaystyle {\boldsymbol {X}}\sim {\mathcal {M}}(n;p_{1},\dots ,p_{d})}
. Cal notar que cada component
X
j
{\displaystyle X_{j}}
té una distribució binomial de paràmetres
n
{\displaystyle n}
i
p
j
{\displaystyle p_{j}}
,
X
j
∼
B
(
n
,
p
j
)
{\displaystyle X_{j}\sim B(n,p_{j})}
. De fet, una distribució multinomial és una extensió de la distribució binomial quan hi ha més de dos resultats possibles. La funció característica del vector
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
és
φ
(
t
1
,
…
,
t
d
)
=
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
,
t
1
,
…
,
t
d
∈
R
.
{\displaystyle \varphi (t_{1},\dots ,t_{d})={\big (}p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}}{\big )}^{n},\ t_{1},\dots ,t_{d}\in \mathbb {R} .}
Càcul de la funció característica
Per a
t
1
,
…
,
t
d
{\displaystyle t_{1},\dots ,t_{d}}
,
φ
(
t
1
,
…
,
t
d
)
=
E
(
e
i
∑
j
=
1
d
t
j
X
j
)
=
∑
x
1
,
…
,
x
d
∈
{
0
,
…
,
n
}
,
∑
j
=
1
d
x
j
=
n
n
!
x
1
!
⋯
x
d
!
e
i
∑
j
=
1
d
t
j
x
j
p
1
x
1
⋯
p
d
x
d
=
∑
x
1
,
…
,
x
d
∈
{
0
,
…
,
n
}
,
∑
j
=
1
d
x
j
=
n
n
!
x
1
!
⋯
x
d
!
(
p
1
e
i
t
1
)
x
1
⋯
(
p
d
e
i
t
d
)
x
d
=
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
,
{\displaystyle {\begin{aligned}\varphi (t_{1},\dots ,t_{d})&=E(e^{i\sum _{j=1}^{d}t_{j}X_{j}})=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,e^{i\sum _{j=1}^{d}t_{j}x_{j}}p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}\\&=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,{\big (}p_{1}e^{it_{1}}{\big )}^{x_{1}}\cdots {\big (}p_{d}e^{it_{d}})^{x_{d}}={\big (}p_{1}e^{it_{1}}+\dots +p_{d}e^{it_{d}}{\big )}^{n},\end{aligned}}}
on a l'última igualtat hem aplicat la
fórmula
(
a
1
+
a
2
+
⋯
+
a
d
)
n
=
∑
(
n
x
1
,
…
,
x
d
)
a
1
x
1
⋯
a
d
x
d
,
{\displaystyle (a_{1}+a_{2}+\cdots +a_{d})^{n}=\sum {\binom {n}{x_{1},\dots ,x_{d}}}a_{1}^{x_{1}}\cdots a_{d}^{x_{d}},}
on la suma es fa sobre totes les
d
{\displaystyle d}
-
ples
(
x
1
,
…
,
x
d
)
∈
{
0
,
1
,
…
,
n
}
d
{\displaystyle (x_{1},\dots ,x_{d})\in \mathbb {\{} 0,1,\dots ,n\}^{d}}
tals que
x
1
+
⋯
+
x
d
=
n
{\displaystyle x_{1}+\cdots +x_{d}=n}
.
A partir d'aquesta funció característica podem calcular de manera senzilla
E
[
X
1
X
2
]
{\displaystyle E[X_{1}X_{2}]}
:
∂
2
∂
t
1
∂
t
2
φ
(
t
1
,
…
,
t
d
)
=
−
n
(
n
−
1
)
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
−
2
p
1
p
2
e
i
t
1
e
i
t
2
,
{\displaystyle {\frac {\partial ^{2}}{\partial t_{1}\partial t_{2}}}\varphi (t_{1},\dots ,t_{d})=-n(n-1)(p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}})^{n-2}p_{1}p_{2}e^{it_{1}}e^{it_{2}},}
d'on
E
(
X
1
X
2
)
=
n
(
n
−
1
)
p
1
p
2
.
{\displaystyle E(X_{1}X_{2})=n(n-1)p_{1}p_{2}.}
Distribució normal multivariant
modifica
Vegeu Anderson [5] . En aquest exemple escriurem tots els vectors en columna. Un vector aleatori
X
=
(
X
1
,
…
,
X
d
)
′
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'}
es diu que segueix una distribució normal
d
{\displaystyle d}
-dimensional
N
(
0
,
I
d
)
{\displaystyle {\mathcal {N}}({\boldsymbol {0}},{\boldsymbol {I}}_{d})}
on
I
d
{\displaystyle {\boldsymbol {I}}_{d}}
és la matriu identitat, si té funció de densitat
f
(
x
1
,
…
,
x
d
)
=
1
(
2
π
)
d
/
2
e
−
(
x
1
2
+
⋯
+
x
d
2
)
/
2
.
{\displaystyle f(x_{1},\dots ,x_{d})={\frac {1}{(2\pi )^{d/2}}}\,e^{-(x_{1}^{2}+\cdots +x_{d}^{2})/2}.}
Cal notar que les components del vector són independents, cadascuna amb una distribució normal estàndard
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. La seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
e
−
(
t
1
2
+
⋯
+
t
d
2
)
/
2
=
e
−
t
′
t
/
2
,
t
=
(
t
1
,
…
,
t
d
)
′
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}=e^{-{\boldsymbol {t}}'{\boldsymbol {t}}/2},\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})^{\prime }\in \mathbb {R} ^{d}.}
Càcul de la funció característica
φ
X
(
t
1
,
…
,
t
d
)
=
∫
−
∞
∞
⋯
∫
−
∞
∞
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
f
X
(
x
1
,
…
,
x
d
)
d
x
1
⋯
d
x
d
=
1
(
2
π
)
d
/
2
∫
−
∞
∞
⋯
∫
−
∞
∞
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
e
−
(
x
1
2
+
⋯
+
d
2
)
/
2
d
x
1
⋯
d
x
d
=
1
(
2
π
)
d
/
2
∫
−
∞
∞
e
i
t
1
x
1
−
x
1
2
/
2
d
t
1
⋯
∫
−
∞
∞
e
i
t
d
x
d
−
x
d
2
/
2
d
t
d
=
e
−
(
t
1
2
+
⋯
+
t
d
2
)
/
2
,
{\displaystyle {\begin{aligned}\varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})&=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})\,dx_{1}\cdots dx_{d}\\&={\frac {1}{(2\pi )^{d/2}}}\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,e^{-(x_{1}^{2}+\cdots +_{d}^{2})/2}\,dx_{1}\cdots dx_{d}\\&={\frac {1}{(2\pi )^{d/2}}}\int _{-\infty }^{\infty }e^{it_{1}x_{1}-x_{1}^{2}/2}\,dt_{1}\cdots \int _{-\infty }^{\infty }e^{it_{d}x_{d}-x_{d}^{2}/2}\,dt_{d}\\&=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2},\end{aligned}}}
on hem utilitzar la funció característica de la distribució
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
que hem calculat abans.
Sigui
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
una matriu
d
×
d
{\displaystyle d\times d}
definida positiva [6] i
μ
=
(
μ
1
,
…
,
μ
d
)
′
{\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{d})^{\prime }}
un vector d'escalars. La matriu
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
té una matriu arrel quadrada [7]
Σ
1
/
2
{\displaystyle \Sigma ^{1/2}}
definida positiva ( i per tant simètrica), que compleix
(
Σ
1
/
2
)
2
=
Σ
{\displaystyle {\big (}{\boldsymbol {\Sigma }}^{1/2}{\big )}^{2}={\boldsymbol {\Sigma }}}
. Definim
Y
=
Σ
1
/
2
X
+
μ
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {\Sigma }}^{1/2}{\boldsymbol {X}}+{\boldsymbol {\mu }}.}
Per la fórmula que hem vist abans, la funció característica de
Y
{\displaystyle {\boldsymbol {Y}}}
serà, per
t
=
(
t
1
,
…
,
t
d
)
′
∈
R
d
{\displaystyle {\boldsymbol {t}}=(t_{1},\dots ,t_{d})'\in \mathbb {R} ^{d}}
,
φ
Y
(
t
)
=
e
i
t
′
μ
φ
X
(
Σ
1
/
2
t
)
=
e
i
t
′
μ
e
−
(
Σ
1
/
2
t
)
′
Σ
1
/
2
t
/
2
=
e
i
t
′
μ
−
t
′
Σ
t
/
2
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {\Sigma ^{1/2}t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}}\,e^{-(\Sigma ^{1/2}{\boldsymbol {t}})'\Sigma ^{1/2}{\boldsymbol {t}}/2}=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'\Sigma {\boldsymbol {t}}/2}.}
D'altra banda, atès que
E
(
X
)
=
(
E
(
X
1
)
,
…
,
E
(
X
d
)
)
′
=
0
,
{\displaystyle {\text{E}}({\boldsymbol {X}})={\big (}{\text{E}}(X_{1}),\dots ,{\text{E}}(X_{d}){\big )}'={\boldsymbol {0}},}
d'on
E
(
Y
)
=
(
E
(
Y
1
)
,
…
,
E
(
Y
d
)
)
′
=
(
μ
1
,
…
,
μ
d
)
′
=
μ
.
{\displaystyle {\text{E}}({\boldsymbol {Y}})={\big (}{\text{E}}(Y_{1}),\dots ,{\text{E}}(Y_{d}){\big )}'=(\mu _{1},\dots ,\mu _{d})'={\boldsymbol {\mu }}.}
I per les propietats de la matriu de variàncies-covariàncies, la matriu de variàncies-covariàncies del vector
Y
{\displaystyle {\boldsymbol {Y}}}
serà:
V
(
Y
)
=
Σ
1
/
2
V
(
Y
)
Σ
1
/
2
=
Σ
.
{\displaystyle {\boldsymbol {V}}({\boldsymbol {Y}})={\boldsymbol {\Sigma }}^{1/2}\,{\boldsymbol {V}}({\boldsymbol {Y}})\,{\boldsymbol {\Sigma }}^{1/2}={\boldsymbol {\Sigma }}.}
S'escriu
Y
∼
N
(
μ
,
Σ
)
{\displaystyle {\boldsymbol {Y}}\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}
. Utilitzant la fórmula del canvi de variables per a vectors aleatoris amb densitat, podem calcular la funció de densitat de
Y
{\displaystyle {\boldsymbol {Y}}}
, que és:
f
Y
(
x
1
,
…
,
x
d
)
=
1
(
2
π
)
d
/
2
det
Σ
e
−
(
x
−
μ
)
′
Σ
−
1
(
x
−
μ
)
/
2
,
{\displaystyle f_{\boldsymbol {Y}}(x_{1},\dots ,x_{d})={\frac {1}{(2\pi )^{d/2}{\sqrt {{\text{det}}\,{\boldsymbol {\Sigma }}}}}}\,e^{-({\boldsymbol {x}}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {x}}-{\boldsymbol {\mu }})/2},}
on
det
Σ
{\displaystyle {\text{det}}\,{\boldsymbol {\Sigma }}}
és el determinant de la matriu
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
.
En el cas que hem vist fins ara, la matriu de variàncies-covariàncies del vector normal multidimensional
Y
{\displaystyle {\boldsymbol {Y}}}
era no singular, és a dir,
det
Σ
>
0
{\displaystyle {\text{det}}\,{\boldsymbol {\Sigma }}>0}
. Utilitzant la funció característica es pot definir un vector normal multidimensional de manera que inclogui el cas que la matriu de variàncies covariàncies sigui singular i que s'anomena vector normal multidimensional singular o degenerat [8] [9] ; aquest vector està concentrat en una varietat lineal (estricte) de
R
d
{\displaystyle \mathbb {R} ^{d}}
i no té funció de densitat. Específicament, sigui
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
una matriu
d
×
d
{\displaystyle d\times d}
definida no negativa i
μ
=
(
μ
1
,
…
,
μ
d
)
′
{\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{d})^{\prime }}
un vector d'escalars; un vector aleatori
Y
=
(
Y
1
,
…
,
Y
d
)
′
{\displaystyle {\boldsymbol {Y}}=(Y_{1},\dots ,Y_{d})'}
, es diu que és normal multidimensional, i s'escriu
Y
∼
N
(
μ
,
Σ
)
{\displaystyle {\boldsymbol {Y}}\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}
si té funció característica
φ
Y
(
t
)
=
e
i
t
′
μ
−
t
′
Σ
t
/
2
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'\Sigma {\boldsymbol {t}}/2}.}
Quan
det
Σ
=
0
{\displaystyle {\text{det}}\,{\boldsymbol {\Sigma }}=0}
es diu que és un vector normal multidimensional singular ; en aquest cas, també el vector d'esperances és
μ
{\displaystyle {\boldsymbol {\mu }}}
i la matriu de variàncies és
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
, però si el rang de
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
és
r
{\displaystyle r}
, aleshores la distribució de
Y
{\displaystyle {\boldsymbol {Y}}}
està concentrada en una varietat lineal de dimensió
r
{\displaystyle r}
i per tant no té funció de densitat.
Les variables
X
1
,
…
,
X
d
{\displaystyle X_{1},\dots ,X_{d}}
són independents i totes tenen distribució
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. En efecte, per exemple, la funció de densitat marginal de
X
1
{\displaystyle X_{1}}
és
f
X
1
(
x
1
)
=
∫
−
∞
∞
⋯
∫
−
∞
∞
f
(
X
1
,
…
,
X
d
)
(
X
1
,
…
,
x
d
)
d
x
2
⋯
d
x
d
=
1
2
π
e
−
x
1
2
/
2
1
2
π
∫
−
∞
∞
e
−
x
2
2
/
2
d
x
2
⋯
1
2
π
∫
−
∞
∞
e
−
x
d
2
/
2
d
x
d
=
1
2
π
e
−
x
1
2
/
2
.
{\displaystyle {\begin{aligned}f_{X_{1}}(x_{1})&=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{(X_{1},\dots ,X_{d})}(X_{1},\dots ,x_{d})\,dx_{2}\cdots dx_{d}\\&={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}\,{\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{2}^{2}/2}\,dx_{2}\cdots {\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{d}^{2}/2}\,dx_{d}={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}.\end{aligned}}}
Per tant, d'una banda
X
1
∼
N
(
0
,
1
)
{\displaystyle X_{1}\sim {\mathcal {N}}(0,1)}
. I de l'altra, tenim que
f
(
X
1
,
…
,
X
d
)
(
x
1
,
…
,
x
d
)
=
f
X
1
(
x
1
)
⋯
f
X
d
(
x
d
)
,
∀
x
1
,
…
,
x
d
∈
R
,
{\displaystyle f_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,{\boldsymbol {x}}_{d})=f_{X_{1}}(x_{1})\cdots f_{X_{d}}(x_{d}),\quad \forall x_{1},\dots ,x_{d}\in \mathbb {R} ,}
d'on
X
1
,
…
,
X
d
{\displaystyle X_{1},\dots ,X_{d}}
són independents. Aleshores, utilitzant la relació entre variables independents i funcions característiques i l'expressió de la funció característica de la distribució normal
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
que hem calculat abans, tenim que per qualsevol
t
1
,
…
t
d
∈
R
{\displaystyle t_{1},\dots t_{d}\in \mathbb {R} }
,
φ
(
X
1
,
…
,
X
d
)
(
t
1
,
…
,
t
d
)
=
φ
X
1
(
t
1
)
⋯
φ
X
d
(
t
d
)
=
e
−
t
1
2
/
2
⋯
e
−
t
d
2
/
2
=
e
−
(
t
1
2
+
⋯
+
t
d
2
)
/
2
.
{\displaystyle \varphi _{(X_{1},\dots ,X_{d})}(t_{1},\dots ,t_{d})=\varphi _{X_{1}}(t_{1})\cdots \varphi _{X_{d}}(t_{d})=e^{-t_{1}^{2}/2}\cdots e^{-t_{d}^{2}/2}=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}.}
↑ Johnson , N. L.; Kotz , S.; Balakrihsnan , N. Discrete Multivariate Distributions . Nova York: Wiley, 1997. ISBN 0-471-12844-1 .
↑ Forbes , C.; Evans , M.; Hastings , N.; Peacock , B. Statistical distributions. . 4th ed.. Oxford: Wiley-Blackwell, 2010, pp.135-136. ISBN 978-0-470-62724-2 .
↑ Anderson , T. W.. An introduction to multivariate statistical analysis . 3rd ed. Hoboken, N.J.: Wiley-Interscience, 2003. ISBN 0-471-36091-0 .
↑ Per definició, una matriu definida positiva és simètrica
↑ Seber , G. A. F.. A matrix handbook for statisticians . Hoboken, N.J.: Wiley-Interscience, 2008, p. 220. ISBN 978-0-470-22678-0 .
↑ Bryc , Wlodzimierz. The normal distribution : characterizations with applications . New York: Springer-Verlag, 1995. ISBN 0-387-97990-5 .
↑ Per altres definicions alternatives, vegeu Seber , G. A. F.. A matrix handbook for statisticians . Hoboken, N.J.: Wiley-Interscience, 2008, p. 436. ISBN 978-0-470-22678-0 .
Sato , Ken-iti. Lévy processes and infinitely divisible distributions . Cambridge, U.K.: Cambridge University Press, 1999, p. 9. ISBN 0-521-55302-4 .
Cuppens , Roger. Decomposition of multivariate probabilities . New York: Academic Press, 1975. ISBN 0-12-199450-3 .