En teoria de la probabilitat , la funció característica d'una variable aleatòria real és una eina matemàtica que proporciona informació completa sobre la distribució de probabilitat de la variable aleatòria i sovint en facilita l'estudi. A més, amb les funcions característiques es disposa, gràcies al teorema de continuïtat de Lévy , d'un mètode senzill i potent per estudiar la convergència en distribució d'una successió de variables aleatòries.
Donada una variable aleatòria real
X
:
Ω
→
R
{\displaystyle X:\Omega \to \mathbb {R} }
definida sobre un espai de probabilitat
(
Ω
,
B
,
P
)
{\displaystyle (\Omega ,\,{\mathcal {B}},\,\mathbb {P} )}
, la seva funció característica és la funció
φ
X
:
R
→
C
{\displaystyle \varphi _{X}:\mathbb {R} \to \mathbb {C} }
(és a dir de valors complexos )
definida, per a tot real t , per la relació següent (on
i
∈
C
{\displaystyle i\in \mathbb {C} }
,
i
2
=
−
1
{\displaystyle i^{2}=-1}
i
E
(
⋅
)
{\displaystyle \operatorname {E} (\cdot )}
denota l'operador esperança ):
φ
X
(
t
)
=
E
(
e
i
t
X
)
=
E
(
cos
(
t
X
)
)
+
i
E
(
sin
(
t
X
)
)
{\displaystyle \varphi _{X}(t)=\operatorname {E} \left(\mathrm {e} ^{i\,t\,X}\right)=\operatorname {E} \left(\cos \,(t\,X)\right)+i\,\operatorname {E} \left(\sin \,(t\,X)\right)}
Expressions de la funció característica
modifica
Per definició de
φ
X
{\displaystyle \varphi _{X}}
:
∀
t
∈
R
,
φ
X
(
t
)
=
∫
Ω
e
i
t
X
d
P
=
∫
Ω
cos
(
t
X
)
d
P
+
i
∫
Ω
sin
(
t
X
)
d
P
(
1
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{\Omega }\mathrm {e} ^{i\,t\,X}\,d\mathbb {P} =\int _{\Omega }\cos(t\,X)\,d\mathbb {P} \,+\,i\,\int _{\Omega }\sin(t\,X)\,d\mathbb {P} \;\;\,\qquad \qquad \qquad \quad (1)}
Denotant per
P
X
{\displaystyle \mathbb {P} _{X}}
la distribució de probabilitat de la variable aleatòria X :
∀
t
∈
R
,
φ
X
(
t
)
=
∫
R
e
i
t
x
d
P
X
(
x
)
=
∫
R
cos
(
t
X
)
d
P
X
(
x
)
+
i
∫
R
sin
(
t
X
)
d
P
X
(
x
)
(
2
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{\mathbb {R} }\mathrm {e} ^{i\,t\,x}\,d\mathbb {P} _{X}(x)=\int _{\mathbb {R} }\cos(t\,X)\,d\mathbb {P} _{X}(x)\,+\,i\,\int _{\mathbb {R} }\sin(t\,X)\,d\mathbb {P} _{X}(x)\qquad (2)}
(segons el teorema de la mesura imatge)
Remarques :
la definició (1) té sentit perquè per a tot real t , la variable aleatòria complexa
e
i
t
X
=
cos
(
t
X
)
+
i
sin
(
t
X
)
{\displaystyle \mathrm {e} ^{i\,t\,X}=\cos \,(t\,X)+i\,\sin \,(t\,X)}
és fitada (té mòdul 1) i per tant és integrable respecte a la mesura de probabilitat
P
{\displaystyle \mathbb {P} }
;
l'equació (2) significa que la funció característica d'una variable aleatòria real X és la transformada de Fourier de la seva distribució de probabilitat
P
X
{\displaystyle \mathbb {P} _{X}}
, mesura de probabilitat sobre l'espai mesurable (o probabilitzable)
(
R
,
B
R
)
{\displaystyle (\mathbb {R} ,\,{\mathcal {B}}_{\mathbb {R} })}
, on
B
R
{\displaystyle {\mathcal {B}}_{\mathbb {R} }}
és la sigma-àlgebra de Borel de
R
.
{\displaystyle \mathbb {R} .}
Quan X és discreta , amb valors
x
k
{\displaystyle x_{k}}
tals que per a tot k ,
P
(
X
=
x
k
)
=
p
k
{\displaystyle \mathbb {P} (X=x_{k})=p_{k}}
aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∑
k
e
i
t
x
k
p
k
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\sum _{k}\mathrm {e} ^{i\,t\,x_{k}}\,p_{k}}
(suma finita o sèrie absolutament convergent )
∀
t
∈
R
,
φ
X
(
t
)
=
∫
−
∞
+
∞
e
i
t
x
f
X
(
x
)
d
x
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{-\infty }^{+\infty }\mathrm {e} ^{i\,t\,x}\,f_{X}(x)\,dx}
(integral de Lebesgue; en els casos usuals coincideix amb la integral de Riemann )
La funció característica d'una variable aleatòria real X :
φ
X
(
0
)
=
1
{\displaystyle \varphi _{X}(0)=1}
∀
t
∈
R
,
|
φ
X
(
t
)
|
≤
1
{\displaystyle \forall \,t\in \mathbb {R} ,\,|\varphi _{X}(t)|\leq 1}
∀
t
∈
R
,
φ
X
(
−
t
)
=
φ
X
(
t
)
¯
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(-t)={\overline {\varphi _{X}(t)}}}
(on
z
¯
{\displaystyle {\overline {z}}}
és el conjugat del nombre complex z )
∀
a
∈
R
,
∀
b
∈
R
,
∀
t
∈
R
,
φ
a
X
+
b
(
t
)
=
e
i
b
t
φ
X
(
a
t
)
{\displaystyle \forall \,a\in \mathbb {R} ,\,\forall \,b\in \mathbb {R} ,\,\forall \,t\in \mathbb {R} ,\,\varphi _{a\,X+b\,}(t)=\mathrm {e} ^{i\,b\,t}\,\varphi _{X}(a\,t)}
i en particular :
∀
t
∈
R
,
φ
−
X
(
t
)
=
φ
X
(
−
t
)
=
φ
X
(
t
)
¯
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{-X\,}(t)=\varphi _{X}(-t)={\overline {\varphi _{X}(t)}}}
;
per tant si
X
{\displaystyle X}
i
−
X
{\displaystyle -X}
tenen la mateixa distribució (dita simètrica ), la funció
φ
X
{\displaystyle \varphi _{X}}
és parella amb valors reals
(la tercera propietat es dedueix del teorema de convergència dominada ; les altres són immediates)
Demostració de la continuïtat uniforme
Per
linealitat de l'esperança :
∀
t
∈
R
,
∀
h
∈
R
,
φ
X
(
t
+
h
)
−
φ
X
(
t
)
=
E
(
e
i
(
t
+
h
)
X
−
e
i
t
X
)
=
E
(
e
i
t
X
(
e
i
h
X
−
1
)
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,h\in \mathbb {R} ,\varphi _{X}(t+h)-\varphi _{X}(t)=\operatorname {E} \left(\mathrm {e} ^{i\,(t+h)\,X}-\mathrm {e} ^{i\,t\,X}\right)=\operatorname {E} \left(\mathrm {e} ^{i\,t\,X}\left(\mathrm {e} ^{i\,h\,X}-1\right)\right)}
i per tant:
∀
t
∈
R
,
∀
h
∈
R
,
|
φ
X
(
t
+
h
)
−
φ
X
(
t
)
|
≤
E
(
|
e
i
t
X
|
⋅
|
e
i
h
X
−
1
|
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,h\in \mathbb {R} ,\left|\varphi _{X}(t+h)-\varphi _{X}(t)\right|\leq \operatorname {E} \left(\left|\mathrm {e} ^{i\,t\,X}\right|\,\cdot \left|\mathrm {e} ^{i\,h\,X}-1\right|\right)}
;
∀
t
∈
R
,
∀
h
∈
R
,
|
φ
X
(
t
+
h
)
−
φ
X
(
t
)
|
≤
E
(
|
e
i
h
X
−
1
|
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,h\in \mathbb {R} ,\left|\varphi _{X}(t+h)-\varphi _{X}(t)\right|\leq \operatorname {E} \left(\left|\mathrm {e} ^{i\,h\,X}-1\right|\right)}
.
Ara bé:
∀
ω
∈
Ω
,
e
i
h
X
(
ω
)
−
1
→
0
quan
h
→
0
{\displaystyle \forall \,\omega \in \Omega ,\,\mathrm {e} ^{i\,h\,X(\omega )}-1\to 0{\text{ quan }}h\to 0}
i a més
∀
h
∈
R
,
|
e
i
h
X
−
1
|
≤
2
{\displaystyle \forall \,h\in \mathbb {R} ,\,\left|\mathrm {e} ^{i\,h\,X}-1\right|\leq 2}
Aleshores pel teorema de convergència dominada (atès que la variable aleatòria constant amb valor 2 és integrable):
E
(
|
e
i
h
X
−
1
|
)
→
0
quan
h
→
0
{\displaystyle \operatorname {E} \left(\left|\mathrm {e} ^{i\,h\,X}-1\right|\right)\to 0{\text{ quan }}h\to 0}
.
Com que la funció majorant tendeix cap a 0 i no depén de
t , això acaba la demostració.
Si la variable aleatòria X segueix la distribució degenerada de valor
μ
{\displaystyle \mu }
(és a dir:
P
(
X
=
μ
)
=
1
{\displaystyle \mathbb {P} (X=\mu )=1}
; X és constant quasi segurament) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
e
i
t
μ
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{i\,t\,\mu }}
Si la variable aleatòria X segueix la distribució binomial
B
(
n
,
p
)
{\displaystyle {\mathcal {B}}(n,\,p)}
(on
n
∈
N
,
p
∈
[
0
,
1
]
{\displaystyle n\in \mathbb {N} ,\,p\in [0,\,1]}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∑
k
=
0
n
e
i
t
k
(
n
k
)
p
k
(
1
−
p
)
n
−
k
=
∑
k
=
0
n
(
n
k
)
(
p
e
i
t
)
k
(
1
−
p
)
n
−
k
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\sum _{k=0}^{n}\mathrm {e} ^{i\,t\,k}\,{n \choose k}\,p^{k}\,(1-p)^{n-k}=\sum _{k=0}^{n}{n \choose k}\,\left(p\,\mathrm {e} ^{i\,t}\right)^{k}\,(1-p)^{n-k}}
d'on es dedueix (fórmula del binomi de Newton ):
∀
t
∈
R
,
φ
X
(
t
)
=
(
p
e
i
t
+
1
−
p
)
n
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\left(p\,\mathrm {e} ^{i\,t}+1-p\right)^{n}}
En particular, si la variable aleatòria X segueix la distribució de Bernoulli
B
(
1
,
p
)
{\displaystyle {\mathcal {B}}(1,\,p)}
(on
p
∈
[
0
,
1
]
{\displaystyle \ p\in [0,\,1]}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
p
e
i
t
+
1
−
p
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=p\,\mathrm {e} ^{i\,t}+1-p}
Si la variable aleatòria X segueix la distribució geomètrica
G
(
p
)
{\displaystyle {\mathcal {G}}(p)}
(on
p
∈
]
0
,
1
[
{\displaystyle p\in \,]0,\,1[}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∑
k
=
1
+
∞
e
i
t
k
p
(
1
−
p
)
k
−
1
=
p
e
i
t
∑
k
=
1
+
∞
[
(
1
−
p
)
e
i
t
]
k
−
1
=
p
e
i
t
1
−
(
1
−
p
)
e
i
t
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\sum _{k=1}^{+\infty }\mathrm {e} ^{i\,t\,k}\,p\,(1-p)^{k-1}=p\,\mathrm {e} ^{i\,t}\,\sum _{k=1}^{+\infty }\left[(1-p)\,\mathrm {e} ^{i\,t}\right]^{k-1}={\frac {p\,\mathrm {e} ^{i\,t}}{1-(1-p)\,\mathrm {e} ^{i\,t}}}}
Si la variable aleatòria X segueix la distribució de Poisson
P
(
λ
)
{\displaystyle {\mathcal {P}}(\lambda )}
(on
λ
>
0
{\displaystyle \lambda >0}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∑
k
=
0
+
∞
e
i
t
k
e
−
λ
λ
k
k
!
=
e
−
λ
∑
k
=
0
+
∞
(
λ
e
i
t
)
k
k
!
=
e
−
λ
e
λ
e
i
t
=
e
λ
(
e
i
t
−
1
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\sum _{k=0}^{+\infty }\mathrm {e} ^{i\,t\,k}\,\mathrm {e} ^{-\lambda }\,{\frac {\lambda ^{k}}{k\,!}}=\mathrm {e} ^{-\lambda }\,\sum _{k=0}^{+\infty }{\frac {\left(\lambda \,\mathrm {e} ^{i\,t}\right)^{k}}{k\,!}}=\mathrm {e} ^{-\lambda }\,\mathrm {e} ^{\lambda \,\mathrm {e} ^{i\,t}}=\mathrm {e} ^{\lambda \,\left(\mathrm {e} ^{i\,t}-1\right)}}
Si la variable aleatòria X segueix la distribució uniforme contínua
U
(
[
a
,
b
]
)
{\displaystyle {\mathcal {U}}([a,\,b])}
(on
a
∈
R
,
b
∈
R
{\displaystyle \ a\in \mathbb {R} ,\,b\in \mathbb {R} }
i a < b ) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∫
a
b
e
i
t
x
1
b
−
a
d
x
=
e
i
t
b
−
e
i
t
a
i
(
b
−
a
)
t
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{a}^{b}\mathrm {e} ^{i\,t\,x}\,{\frac {1}{b-a}}\,dx={\frac {\mathrm {e} ^{i\,t\,b}-\mathrm {e} ^{i\,t\,a}}{i\,(b-a)\,t}}}
si
t
≠
0
{\displaystyle t\neq 0}
, i
φ
X
(
0
)
=
1
{\displaystyle \varphi _{X}(0)=1}
.
En particular, si X segueix la distribució
U
(
[
−
α
,
+
α
]
)
{\displaystyle {\mathcal {U}}([-\alpha ,\,+\alpha ])}
(on
α
>
0
{\displaystyle \alpha >0}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
sin
(
α
t
)
α
t
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)={\frac {\sin(\alpha \,t)}{\alpha \,t}}}
si
t
≠
0
{\displaystyle t\neq 0}
, i
φ
X
(
0
)
=
1
{\displaystyle \varphi _{X}(0)=1}
.
Si la variable aleatòria X segueix la distribució exponencial
E
(
λ
)
{\displaystyle {\mathcal {E}}(\lambda )}
(on
λ
>
0
{\displaystyle \lambda >0}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∫
0
+
∞
e
i
t
x
λ
e
−
λ
x
d
x
=
λ
∫
0
+
∞
e
−
(
λ
−
i
t
)
x
d
x
=
λ
λ
−
i
t
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{0}^{+\infty }\mathrm {e} ^{i\,t\,x}\,\lambda \,\mathrm {e} ^{-\lambda \,x}\,dx=\lambda \,\int _{0}^{+\infty }\mathrm {e} ^{-(\lambda -i\,t)\,x}\,dx={\frac {\lambda }{\lambda -i\,t}}}
Si la variable aleatòria X segueix la distribució normal estàndard
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,\,1)}
aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∫
−
∞
+
∞
e
i
t
x
1
2
π
e
−
x
2
2
d
x
=
e
−
t
2
2
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{-\infty }^{+\infty }\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\sqrt {2\,\pi }}}\,\mathrm {e} ^{-{\frac {x^{2}}{2}}}\,dx=\mathrm {e} ^{-{\frac {t^{2}}{2}}}}
Prova
L'integrand és derivable respecte a
t , i la funció
R
→
R
,
x
↦
x
e
−
x
2
2
{\displaystyle \mathbb {R} \to \mathbb {R} ,\,x\mapsto x\,\mathrm {e} ^{-{\frac {x^{2}}{2}}}\,}
és integrable sobre
R
{\displaystyle \mathbb {R} }
. Així, doncs, es pot
derivar sota el signe integral; la funció
φ
X
{\displaystyle \ \varphi _{X}}
és derivable i compleix la relació següent:
∀
t
∈
R
,
φ
X
′
(
t
)
=
∫
−
∞
+
∞
∂
∂
t
(
e
i
t
x
1
2
π
e
−
x
2
2
)
d
x
=
∫
−
∞
+
∞
i
x
e
i
t
x
1
2
π
e
−
x
2
2
d
x
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi '_{X}(t)=\int _{-\infty }^{+\infty }{\frac {\partial }{\partial t}}\left(\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\sqrt {2\,\pi }}}\,\mathrm {e} ^{-{\frac {x^{2}}{2}}}\right)dx=\int _{-\infty }^{+\infty }i\,x\,\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\sqrt {2\,\pi }}}\,\mathrm {e} ^{-{\frac {x^{2}}{2}}}\,dx}
;
en integrar per parts :
∀
t
∈
R
,
φ
X
′
(
t
)
=
−
∫
−
∞
+
∞
t
e
i
t
x
1
2
π
e
−
x
2
2
d
x
=
−
t
φ
X
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi '_{X}(t)=-\int _{-\infty }^{+\infty }t\,\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\sqrt {2\,\pi }}}\,\mathrm {e} ^{-{\frac {x^{2}}{2}}}\,dx=-t\,\varphi _{X}(t)}
.
Per tant, en resoldre aquesta equació diferencial :
∃
C
∈
C
,
∀
t
∈
R
,
φ
X
(
t
)
=
C
e
−
t
2
2
{\displaystyle \exists \,C\in \mathbb {C} ,\,\forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=C\,\mathrm {e} ^{-{\frac {t^{2}}{2}}}}
Per fi :
C
=
φ
X
(
0
)
=
1
{\displaystyle C=\varphi _{X}(0)=1}
, Q.E.D.
(també es pot utilitzar el
teorema de Cauchy per a
funcions holomorfes )
Distribució de Laplace centrada en el 0
modifica
Si la variable X segueix la distribució de Laplace centrada en 0,
Laplace
(
0
,
b
)
{\displaystyle {\text{Laplace}}(0,b)}
, amb
b
>
0
{\displaystyle b>0}
aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
1
2
b
∫
−
∞
+
∞
e
i
t
x
e
−
|
x
|
b
d
x
=
1
1
+
b
2
t
2
.
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)={\frac {1}{2b}}\int _{-\infty }^{+\infty }\mathrm {e} ^{i\,t\,x}\mathrm {e} ^{-{\frac {\vert x\vert }{b}}}\,dx={\frac {1}{1+b^{2}t^{2}}}.}
Prova
1
2
∫
−
∞
∞
e
i
t
x
e
−
|
x
|
b
d
x
=
1
2
∫
−
∞
∞
cos
(
t
x
)
e
−
|
x
|
b
d
x
+
i
2
∫
−
∞
∞
sin
(
t
x
)
e
−
|
x
|
b
d
x
=
∫
0
∞
cos
(
t
x
)
e
−
x
b
d
x
=
(
i
)
[
b
2
t
sin
(
t
x
)
−
b
cos
(
t
x
)
1
+
b
2
t
2
e
−
x
b
]
x
=
0
∞
=
1
1
+
b
2
t
2
,
{\displaystyle {\begin{aligned}{\frac {1}{2}}\int _{-\infty }^{\infty }e^{itx}e^{-{\frac {\vert x\vert }{b}}}\,dx&={\frac {1}{2}}\int _{-\infty }^{\infty }\cos(tx)\,e^{-{\frac {\vert x\vert }{b}}}\,dx+{\frac {i}{2}}\int _{-\infty }^{\infty }\sin(tx)\,e^{-{\frac {\vert x\vert }{b}}}\,dx=\int _{0}^{\infty }\cos(tx)\,e^{-{\frac {x}{b}}}\,dx\\&{\overset {(i)}{=}}\quad {\bigg [}{\frac {b^{2}t\sin(tx)-b\cos(tx)}{1+b^{2}t^{2}}}\,e^{-{\frac {x}{b}}}{\bigg ]}_{x=0}^{\infty }={\frac {1}{1+b^{2}t^{2}}},\end{aligned}}}
on a la igualtat (i) hem integrat per parts dues vegades.
Distribució de Cauchy simètrica
modifica
Si la variable aleatòria X segueix la distribució de Cauchy simètrica
C
(
0
,
γ
)
{\displaystyle {\mathcal {C}}(0,\,\gamma )}
(on
γ
>
0
{\displaystyle \gamma >0}
) aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
∫
−
∞
+
∞
e
i
t
x
1
π
γ
x
2
+
γ
2
d
x
=
e
−
γ
|
t
|
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\int _{-\infty }^{+\infty }\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\pi }}\,{\frac {\gamma }{x^{2}+\gamma ^{2}}}\,dx=\mathrm {e} ^{-\gamma \,|\,t\,|}}
Per demostrar-ho, es pot utilitzar el teorema dels residus (anàlisi complexa ).
Prova
La funció
g
:
z
↦
e
i
t
z
z
2
+
γ
2
{\displaystyle g:z\mapsto {\frac {\mathrm {e} ^{i\,t\,z}}{z^{2}+\gamma ^{2}}}}
(d'una variable complexa) és
holomorfa en l'obert
U
=
C
∖
{
γ
i
,
−
γ
i
}
{\displaystyle U=\mathbb {C} \setminus \{\gamma \,i,\,-\gamma \,i\}}
(els dos punts singulars
γ
i
,
−
γ
i
{\displaystyle \gamma \,i,\,-\gamma \,i}
són pols simples de
g ).
Per a tot real R tal que R > 0, sigui el semidisc compacte
Δ
R
=
{
z
∈
C
/
|
z
|
≤
R
,
I
m
(
z
)
≥
0
}
{\displaystyle \Delta _{R}=\{z\in \mathbb {C} \,/\,|\,z\,|\leq R,\,\mathrm {Im} (z)\geq 0\}}
la vora del qual és
[
−
R
,
+
R
]
∪
Γ
R
{\displaystyle [-R,\,+R]\cup \Gamma _{R}}
, on
Γ
R
{\displaystyle \Gamma _{R}}
és el semicercle
Γ
R
=
{
z
∈
C
/
|
z
|
=
R
,
I
m
(
z
)
≥
0
}
{\displaystyle \Gamma _{R}=\{z\in \mathbb {C} \,/\,|\,z\,|=R,\,\mathrm {Im} (z)\geq 0\}}
.
Suposant
R
>
γ
{\displaystyle R>\gamma }
, el pol
γ
i
{\displaystyle \gamma \,i}
és l'únic punt singular de la funció g en
Δ
R
{\displaystyle \Delta _{R}}
; per tant, segons el teorema dels residus, si
R
>
γ
{\displaystyle R>\gamma }
:
∫
−
R
+
R
e
i
t
x
x
2
+
γ
2
d
x
+
∫
Γ
R
e
i
t
z
z
2
+
γ
2
d
z
=
2
π
i
R
e
s
(
g
,
γ
i
)
=
2
π
i
e
−
γ
t
2
i
γ
=
π
γ
e
−
γ
t
{\displaystyle \int _{-R}^{+R}{\frac {\mathrm {e} ^{i\,t\,x}}{x^{2}+\gamma ^{2}}}\,dx\,+\,\int _{\Gamma _{R}}{\frac {\mathrm {e} ^{i\,t\,z}}{z^{2}+\gamma ^{2}}}\,dz=2\,\pi \,i\,\mathrm {Res} (g,\,\gamma \,i)=2\,\pi \,i\,{\frac {\mathrm {e} ^{-\gamma \,t}}{2\,i\,\gamma }}={\frac {\pi }{\gamma }}\,\mathrm {e} ^{-\gamma \,t}}
.
Si
t
≥
0
{\displaystyle t\geq 0}
, aleshores
∫
Γ
R
e
i
t
z
z
2
+
γ
2
d
z
→
0
{\displaystyle \int _{\Gamma _{R}}{\frac {\mathrm {e} ^{i\,t\,z}}{z^{2}+\gamma ^{2}}}\,dz\to 0}
quan
R
→
+
∞
{\displaystyle R\to +\infty }
.
En efecte : si
t
≥
0
{\displaystyle t\geq 0}
i
R
>
γ
{\displaystyle \ R>\gamma }
,
∀
z
∈
Γ
R
,
|
e
i
t
z
|
=
e
−
t
I
m
(
z
)
≤
1
i
|
z
2
+
γ
2
|
≥
|
|
z
|
2
−
γ
2
|
=
R
2
−
γ
2
{\displaystyle \forall \,z\in \Gamma _{R},\,\left|\mathrm {e} ^{i\,t\,z}\right|=\mathrm {e} ^{-t\,\mathrm {Im} (z)}\leq 1{\text{ i }}\left|z^{2}+\gamma ^{2}\right|\geq \left|\,|z|^{2}-\gamma ^{2}\right|=R^{2}-\gamma ^{2}}
,
i per tant, si
R
>
γ
{\displaystyle R>\gamma }
:
∀
t
∈
R
+
,
|
∫
Γ
R
e
i
t
z
z
2
+
γ
2
d
z
|
≤
π
R
sup
z
∈
Γ
R
|
e
i
t
z
|
|
z
2
+
γ
2
|
≤
π
R
1
R
2
−
γ
2
{\displaystyle \forall \,t\in \mathbb {R^{+}} ,\,\left|\int _{\Gamma _{R}}{\frac {\mathrm {e} ^{i\,t\,z}}{z^{2}+\gamma ^{2}}}\,dz\right|\leq \pi \,R\,\sup _{z\,\in \,\Gamma _{R}}{\frac {\left|\mathrm {e} ^{i\,t\,z}\right|}{\left|z^{2}+\gamma ^{2}\right|}}\leq \pi \,R\,{\frac {1}{R^{2}-\gamma ^{2}}}}
.
Per a tot real positiu t , passant al límit quan
R
→
+
∞
{\displaystyle R\to +\infty }
, s'obté:
∫
−
∞
+
∞
e
i
t
x
x
2
+
γ
2
d
x
=
π
γ
e
−
γ
t
{\displaystyle \int _{-\infty }^{+\infty }{\frac {\mathrm {e} ^{i\,t\,x}}{x^{2}+\gamma ^{2}}}\,dx\,={\frac {\pi }{\gamma }}\,\mathrm {e} ^{-\gamma \,t}}
.
Altrament dit:
∀
t
∈
R
+
,
φ
X
(
t
)
=
∫
−
∞
+
∞
e
i
t
x
1
π
γ
x
2
+
γ
2
d
x
=
e
−
γ
t
{\displaystyle \forall \,t\in \mathbb {R^{+}} ,\,\varphi _{X}(t)=\int _{-\infty }^{+\infty }\mathrm {e} ^{i\,t\,x}\,{\frac {1}{\pi }}\,{\frac {\gamma }{x^{2}+\gamma ^{2}}}\,dx=\mathrm {e} ^{-\gamma \,t}}
.
Com que la distribució estudiada és simètrica, la funció
φ
X
{\displaystyle \varphi _{X}}
és parella, i se'n dedueix:
∀
t
∈
R
,
φ
X
(
t
)
=
e
−
γ
|
t
|
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{-\gamma \,|\,t\,|}}
, Q.E.D.
Alternativament, Cramer [ 1] proposa la següent demostració utilitzant que la funció característica d'una distribució de Laplace centrada en el 0 és la densitat d'una distribució de Cauchy simètrica (a part d'una constant multiplicativa) i la fórmula d'inversió per a funcions característiques integrables.
Concretament, si
Y
∼
Laplace
(
0
,
1
γ
)
{\displaystyle Y\sim {\text{Laplace}}{\Big (}0,{\frac {1}{\gamma }}{\Big )}}
, hem calculat que la seva funció característica és
φ
Y
(
t
)
=
1
1
+
t
2
γ
2
=
γ
2
γ
2
+
t
2
.
{\displaystyle \varphi _{Y}(t)={\frac {1}{1+{\frac {t^{2}}{\gamma ^{2}}}}}={\frac {\gamma ^{2}}{\gamma ^{2}+t^{2}}}.}
Aquesta funció característica és integrable:
∫
−
∞
∞
|
γ
2
γ
2
+
t
2
|
d
t
=
2
γ
2
∫
0
∞
1
γ
2
+
t
2
d
t
=
2
γ
[
arctan
t
γ
]
0
∞
=
γ
π
.
{\displaystyle \int _{-\infty }^{\infty }{\bigg \vert }{\frac {\gamma ^{2}}{\gamma ^{2}+t^{2}}}{\bigg \vert }\,dt=2\gamma ^{2}\int _{0}^{\infty }{\frac {1}{\gamma ^{2}+t^{2}}}\,dt=2\gamma \,{\bigg [}\arctan {\frac {t}{\gamma }}{\bigg ]}_{0}^{\infty }=\gamma \,\pi .}
Aleshores, per la fórmula d'inversió per a funcions característiques integrables (vegeu més avall les fórmules d'inversió), la funció de densitat de
Y
{\displaystyle Y}
,
f
Y
{\displaystyle f_{Y}}
, val:
f
Y
(
x
)
=
γ
2
e
−
γ
|
x
|
=
1
2
π
∫
−
∞
∞
e
−
i
t
x
φ
Y
(
t
)
d
t
=
1
2
π
∫
−
∞
∞
e
−
i
t
x
γ
2
γ
2
+
t
2
d
t
.
{\displaystyle f_{Y}(x)={\frac {\gamma }{2}}\,e^{-\gamma \vert x\vert }={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{-itx}\varphi _{Y}(t)\,dt={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{-itx}{\frac {\gamma ^{2}}{\gamma ^{2}+t^{2}}}\,dt.}
D'aquí,
e
−
γ
|
x
|
=
1
π
∫
−
∞
∞
e
−
i
t
x
γ
γ
2
+
t
2
d
t
.
{\displaystyle e^{-\gamma \vert x\vert }={\frac {1}{\pi }}\int _{-\infty }^{\infty }e^{-itx}{\frac {\gamma }{\gamma ^{2}+t^{2}}}\,dt.}
O, intercanviant els noms de les variables,
e
−
γ
|
t
|
=
1
π
∫
−
∞
∞
e
−
i
t
x
γ
γ
2
+
x
2
d
x
.
{\displaystyle e^{-\gamma \vert t\vert }={\frac {1}{\pi }}\int _{-\infty }^{\infty }e^{-itx}{\frac {\gamma }{\gamma ^{2}+x^{2}}}\,dx.}
Però l'expressió de la dreta és exactament la funció característica de la variable aleatòria
X
{\displaystyle X}
amb distribució de Cauchy
C
(
0
,
γ
)
{\displaystyle {\mathcal {C}}(0,\gamma )}
avaluada en el punt
−
t
{\displaystyle -t}
,
φ
X
(
−
t
)
{\displaystyle \varphi _{X}(-t)}
. Per tant,
φ
X
(
t
)
=
φ
X
(
−
(
−
t
)
)
=
e
−
γ
|
t
|
.
{\displaystyle \varphi _{X}(t)=\varphi _{X}{\big (}-(-t){\big )}=e^{-\gamma \,\vert t\vert }.}
Cas de la distribució normal general
modifica
Sigui una variable aleatòria X amb distribució normal
N
(
μ
,
σ
2
)
{\displaystyle {\mathcal {N}}(\mu ,\,\sigma ^{2})}
(on
μ
∈
R
,
σ
>
0
{\displaystyle \mu \in \mathbb {R} ,\sigma >0}
).
Aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
e
i
t
μ
−
σ
2
t
2
2
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{i\,t\,\mu \,-{\frac {\sigma ^{2}\,t^{2}}{2}}}}
.
Prova
En efecte, la variable aleatòria
X
∗
=
X
−
μ
σ
{\displaystyle X^{\ast }={\frac {X-\mu }{\sigma }}}
segueix la distribució normal estàndard
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,\,1)}
. Per tant (vegeu supra ):
∀
u
∈
R
,
φ
X
∗
(
u
)
=
e
−
u
2
2
{\displaystyle \forall \,u\in \mathbb {R} ,\,\varphi _{X^{\ast }}(u)=\mathrm {e} ^{-{\frac {u^{2}}{2}}}}
.
Com que
X
=
σ
X
∗
+
μ
{\displaystyle X=\sigma \,X^{\ast }+\mu }
, se'n dedueix que:
∀
t
∈
R
,
φ
X
(
t
)
=
e
i
t
μ
φ
X
∗
(
σ
t
)
=
e
i
t
μ
e
−
σ
2
t
2
2
=
e
i
t
μ
−
σ
2
t
2
2
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{i\,t\,\mu }\,\varphi _{X^{\ast }}(\sigma \,t)=\mathrm {e} ^{i\,t\,\mu }\,\mathrm {e} ^{-{\frac {\sigma ^{2}\,t^{2}}{2}}}=\mathrm {e} ^{i\,t\,\mu \,-{\frac {\sigma ^{2}\,t^{2}}{2}}}}
.
Cas de la distribució de Cauchy general
modifica
Sigui una variable aleatòria X amb distribució de Cauchy
C
(
m
,
γ
)
{\displaystyle {\mathcal {C}}(m,\,\gamma )}
(on
m
∈
R
,
γ
>
0
{\displaystyle m\in \mathbb {R} ,\gamma >0}
).
Aleshores:
∀
t
∈
R
,
φ
X
(
t
)
=
e
i
m
t
−
γ
|
t
|
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{i\,m\,t\,-\,\gamma \,|\,t\,|}}
.
Prova
En efecte la variable aleatòria
Y
=
X
−
m
{\displaystyle \ Y=X-m}
segueix la distribució de Cauchy simètrica
C
(
0
,
γ
)
{\displaystyle {\mathcal {C}}(0,\,\gamma )}
. Per tant (vegeu supra ):
∀
t
∈
R
,
φ
Y
(
t
)
=
e
−
γ
|
t
|
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{Y}(t)=\mathrm {e} ^{-\gamma \,|\,t\,|}}
.
Com que
X
=
Y
+
m
{\displaystyle \ X=Y+m}
, se'n dedueix que:
∀
t
∈
R
,
φ
X
(
t
)
=
e
i
t
m
φ
Y
(
t
)
=
e
i
t
m
e
−
γ
|
t
|
=
e
i
m
t
−
γ
|
t
|
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\mathrm {e} ^{i\,t\,m}\,\varphi _{Y}(t)=\mathrm {e} ^{i\,t\,m}\,\mathrm {e} ^{-\gamma \,|\,t\,|}=\mathrm {e} ^{i\,m\,t\,-\,\gamma \,|\,t\,|}}
.
Perquè la funció característica és anomenada així
modifica
Com el seu nom ho indica, la funció característica d'una variable aleatòria (real) en caracteritza la distribució de probabilitat: dues variables aleatòries segueixen la mateixa distribució si i només si tenen la mateixa funció característica: és el teorema d'unicitat (vegeu infra ).
Per aquesta raó, la funció característica d'una variable aleatòria X també és anomenada funció característica de la distribució d'X . Per exemple, es pot parlar de la funció característica de la distribució normal.
Fórmula d'inversió general. Donada una variable aleatòria real X , es denota per
F
X
{\displaystyle F_{X}}
la seva funció de distribució . Per a tot parell
(
a
,
b
)
{\displaystyle (a,\,b)}
de punts de continuïtat de
F
X
{\displaystyle F_{X}}
es compleix la relació següent:
F
X
(
b
)
−
F
X
(
a
)
=
lim
τ
→
+
∞
1
2
π
∫
−
τ
+
τ
e
−
i
t
a
−
e
−
i
t
b
i
t
φ
X
(
t
)
d
t
{\displaystyle F_{X}(b)-F_{X}(a)=\lim _{\tau \to +\infty }{\frac {1}{2\pi }}\int _{-\tau }^{+\tau }{\frac {\mathrm {e} ^{-i\,t\,a}-\mathrm {e} ^{-i\,t\,b}}{i\,t}}\,\varphi _{X}(t)\,dt}
Això és una variant probabilista del teorema d'inversió de la transformació de Fourier.
Quan la funció característica és integrable no cal fer el pas límit en la fórmula d'inversió i, a més, la variable aleatòria té funció de densitat que s'obté com la transformada de Fourier de la funció característica. Concretament,
Fórmula de inversió per a funcions característiques integrables. Sigui
X
{\displaystyle X}
una variable aleatòria real amb funció característica
φ
X
{\displaystyle \varphi _{X}}
tal que
∫
−
∞
∞
|
φ
X
(
t
)
|
d
t
<
∞
.
{\displaystyle \int _{-\infty }^{\infty }\vert \varphi _{X}(t)\vert \,dt<\infty .}
Aleshores
X
{\displaystyle X}
té funció de densitat
f
{\displaystyle f}
donada per
f
(
x
)
=
1
2
π
∫
−
∞
∞
e
−
i
t
x
φ
X
(
t
)
d
t
.
{\displaystyle f(x)={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{-itx}\,\varphi _{X}(t)\,dt.}
A més
f
{\displaystyle f}
és contínua i afitada.
Comentaris.
1. Sigui X una variable aleatòria amb distribució normal estàndard
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. Segons hem vist, la seva funció característica és
φ
(
t
)
=
e
−
t
2
/
2
{\displaystyle \varphi (t)=e^{-t^{2}/2}}
, que és integrable ja que
∫
−
∞
∞
|
φ
(
t
)
|
d
t
=
∫
−
∞
∞
e
−
x
2
2
d
t
=
2
π
.
{\displaystyle \int _{-\infty }^{\infty }{\big \vert }\varphi (t){\big \vert }\,dt=\int _{-\infty }^{\infty }e^{-{\frac {x^{2}}{2}}}\,dt={\sqrt {2\pi }}.}
Per tant, per la fórmula d'inversió,
1
2
π
e
−
x
2
2
=
1
2
π
∫
−
∞
∞
e
−
i
t
x
e
−
t
2
2
d
t
.
{\displaystyle {\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{-itx}e^{-{\frac {t^{2}}{2}}}\,dt.}
Aleshores, si definim la transformada de Fourier amb la constant normalitzadora
1
/
2
π
{\displaystyle 1/{\sqrt {2\pi }}}
,[ 2]
h
^
(
t
)
=
1
2
π
∫
−
∞
e
−
i
t
x
h
(
x
)
d
x
,
{\displaystyle {\hat {h}}(t)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\ }e^{-itx}h(x)\,dx,}
tindrem que la funció
g
(
x
)
=
e
−
x
2
/
2
{\displaystyle g(x)=e^{-x^{2}/2}}
és invariant per la transformada de Fourier:
g
^
=
g
.
{\displaystyle {\hat {g}}=g.}
2. Hi ha moltes funcions de densitat que no són contínues o no són afitades, i llavors la seva funció característica no és integrable. Per exemple, la distribució exponencial de paràmetre
λ
>
0
{\displaystyle \lambda >0}
,
E
(
λ
)
{\displaystyle {\mathcal {E}}(\lambda )}
, té funció de densitat
f
(
x
)
=
{
λ
e
−
λ
x
,
per a
x
≥
0
,
0
,
altrament.
{\displaystyle f(x)=\left\{{\begin{matrix}\lambda e^{-\lambda x},&{\mbox{per a }}x\geq 0,\\\\0,&{\mbox{altrament.}}\end{matrix}}\right.}
Aquesta funció té una discontinuïtat en el punt 0. La seva funció característica és
φ
(
t
)
=
λ
λ
−
i
t
,
{\displaystyle \varphi (t)={\frac {\lambda }{\lambda -it}},}
que té mòdul
|
λ
λ
−
i
t
|
=
λ
λ
2
+
t
2
.
{\displaystyle {\bigg \vert }{\frac {\lambda }{\lambda -it}}{\bigg \vert }={\frac {\lambda }{\sqrt {\lambda ^{2}+t^{2}}}}.}
Llavors,
∫
−
∞
∞
|
φ
(
t
)
|
d
t
=
λ
∫
−
∞
∞
1
λ
2
+
t
2
d
t
=
λ
[
ln
(
t
+
λ
2
+
t
2
)
]
0
∞
=
∞
.
{\displaystyle \int _{-\infty }^{\infty }\vert \varphi (t)\vert \,dt=\lambda \int _{-\infty }^{\infty }{\frac {1}{\sqrt {\lambda ^{2}+t^{2}}}}\,dt=\lambda \,{\Big [}\ln(t+{\sqrt {\lambda ^{2}+t^{2}}}){\Big ]}_{0}^{\infty }=\infty .}
El teorema d'inversió permet reconstruir (almenys en teoria) la funció de distribució d'una variable aleatòria a partir de la seva funció característica. Una conseqüència és l'important teorema d'unicitat :
Dues variables aleatòries reals són idènticament distribuïdes si i només si tenen la mateixa funció característica.
Prova del teorema d'unicitat
Es recorda que les funcions de distribució són creixents, contínues per la dreta en tot punt de
R
{\displaystyle \mathbb {R} }
, tendeixen a 0 en
−
∞
{\displaystyle -\infty }
i a 1 en
+
∞
{\displaystyle +\infty }
(però no són necessàriament contínues en
R
{\displaystyle \mathbb {R} }
: en particular, les funcions de distribució de les variables aleatòries discretes no ho són).
El teorema de la mesura imatge (vegeu aquí la relació (2)) té com a conseqüència immediata que si dues variables aleatòries X i Y són idènticament distribuïdes (és a dir
P
X
=
P
Y
{\displaystyle \mathbb {P} _{X}=\mathbb {P} _{Y}}
), aleshores
φ
X
=
φ
Y
{\displaystyle \varphi _{X}=\varphi _{Y}}
.
Recíprocament, siguin dues variables aleatòries X i Y tals que
φ
X
=
φ
Y
{\displaystyle \varphi _{X}=\varphi _{Y}}
. Aleshores, segons el teorema d'inversió, per a tot parell
(
a
,
b
)
{\displaystyle (a,\,b)}
de punts de continuïtat de
F
X
{\displaystyle F_{X}}
i
F
Y
{\displaystyle F_{Y}}
es compleix la relació següent:
F
X
(
b
)
−
F
X
(
a
)
=
F
Y
(
b
)
−
F
Y
(
a
)
{\displaystyle \ F_{X}(b)-F_{X}(a)=F_{Y}(b)-F_{Y}(a)}
Ara bé, les funcions
F
X
{\displaystyle F_{X}}
,
F
Y
{\displaystyle F_{Y}}
són creixents, i per tant el conjunt dels punts de discontinuïtat de cadascuna és finit o numerable ; per consegüent:
existeix una successió
(
a
n
)
n
∈
N
{\displaystyle (a_{n})_{n\,\in \,\mathbb {N} }}
de punts de continuïtat de
F
X
{\displaystyle F_{X}}
i
F
Y
{\displaystyle F_{Y}}
tal que
a
n
→
−
∞
{\displaystyle a_{n}\to -\infty }
;
per a tot real x existeix una successió
(
b
m
)
m
∈
N
{\displaystyle (b_{m})_{m\,\in \,\mathbb {N} }}
de punts de continuïtat de
F
X
{\displaystyle F_{X}}
i
F
Y
{\displaystyle F_{Y}}
que convergeix cap a x per la dreta.
Per a tot parell
(
n
,
m
)
{\displaystyle (n,\,m)}
d'enters naturals:
F
X
(
b
m
)
−
F
X
(
a
n
)
=
F
Y
(
b
m
)
−
F
Y
(
a
n
)
{\displaystyle \ F_{X}(b_{m})-F_{X}(a_{n})=F_{Y}(b_{m})-F_{Y}(a_{n})}
Passant al límit quan
n
→
+
∞
{\displaystyle n\to +\infty }
, com que
lim
F
X
(
a
n
)
=
0
i
lim
F
Y
(
a
n
)
=
0
{\displaystyle \lim F_{X}(a_{n})=0{\text{ i }}\lim F_{Y}(a_{n})=0}
, se'n dedueix:
∀
m
∈
N
,
F
X
(
b
m
)
=
F
Y
(
b
m
)
{\displaystyle \forall \,m\in \mathbb {N} ,\,F_{X}(b_{m})=F_{Y}(b_{m})}
Finalment, passant al límit quan
m
→
+
∞
{\displaystyle m\to +\infty }
, com que
x
m
→
x
{\displaystyle x_{m}\to x}
per la dreta i que
F
X
{\displaystyle F_{X}}
,
F
Y
{\displaystyle F_{Y}}
són contínues per la dreta en tot punt:
∀
x
∈
R
,
F
X
(
x
)
=
F
Y
(
x
)
{\displaystyle \forall \,x\in \mathbb {R} ,\,F_{X}(x)=F_{Y}(x)}
; altrament dit:
F
X
=
F
Y
{\displaystyle \ F_{X}=F_{Y}}
.
Se sap que la igualtat
F
X
=
F
Y
{\displaystyle \ F_{X}=F_{Y}}
implica que
X i
Y tenen la mateixa distribució; això acaba la demostració.
El més sovint, el teorema d'unicitat s'utilitza de la manera següent per determinar la distribució de probabilitat d'una variable aleatòria real X : es calcula la funció característica
φ
X
{\displaystyle \varphi _{X}}
i es reconeix la funció característica d'una distribució clàssica que és, per tant, la distribució d'X (per exemple, vegeu infra la prova de l'estabilitat d'algunes distribucions de probabilitat).
Funció característica de la suma de variables aleatòries independents
modifica
Suma de dues variables aleatòries independents
modifica
Donades dues variables aleatòries reals independents X i Y (definides sobre el mateix espai de probabilitat), es compleix la relació següent:
∀
t
∈
R
,
φ
X
+
Y
(
t
)
=
φ
X
(
t
)
φ
Y
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X+Y}(t)=\varphi _{X}(t)\,\varphi _{Y}(t)}
.
En efecte,
∀
t
∈
R
,
φ
X
+
Y
(
t
)
=
E
(
e
i
t
(
X
+
Y
)
)
=
E
(
e
i
t
X
e
i
t
Y
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X+Y}(t)=\operatorname {E} \left(\mathrm {e} ^{i\,t\,(X+Y)}\right)=\operatorname {E} \left(\mathrm {e} ^{i\,t\,X}\,\mathrm {e} ^{i\,t\,Y}\right)}
.
Atès que X i Y són independents, també ho són, per a tot real t , les variables aleatòries
e
i
t
X
{\displaystyle \mathrm {e} ^{i\,t\,X}}
i
e
i
t
Y
{\displaystyle \mathrm {e} ^{i\,t\,Y}}
; per tant:
∀
t
∈
R
,
φ
X
+
Y
(
t
)
=
E
(
e
i
t
X
)
E
(
e
i
t
Y
)
=
φ
X
(
t
)
φ
Y
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X+Y}(t)=\operatorname {E} \left(\mathrm {e} ^{i\,t\,X}\right)\operatorname {E} \left(\mathrm {e} ^{i\,t\,Y}\right)=\varphi _{X}(t)\,\varphi _{Y}(t)}
.
Remarca : el recíproc és fals. Existeixen variables aleatòries no independents les funcions característiques de les quals compleixen aquesta relació. Heus aquí un exemple ben conegut: donada una variable aleatòria X amb distribució de Cauchy simètrica
C
(
0
,
γ
)
{\displaystyle {\mathcal {C}}(0,\,\gamma )}
:
∀
t
∈
R
,
φ
X
+
X
(
t
)
=
φ
2
X
(
t
)
=
φ
X
(
2
t
)
=
e
−
2
γ
|
t
|
=
e
−
γ
|
t
|
e
−
γ
|
t
|
=
φ
X
(
t
)
φ
X
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X+X}(t)=\varphi _{2X}(t)=\varphi _{X}(2\,t)=\mathrm {e} ^{-2\,\gamma \,|\,t\,|}=\mathrm {e} ^{-\gamma \,|\,t\,|}\,\mathrm {e} ^{-\gamma \,|\,t\,|}=\varphi _{X}(t)\,\varphi _{X}(t)}
Però és clar que X i X no són independents.
Donades n variables aleatòries reals independents
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},\,X_{2},\,\dots ,X_{n}}
(definides sobre el mateix espai de probabilitat), es compleix la relació següent:
∀
t
∈
R
,
φ
X
1
+
⋯
+
X
n
(
t
)
=
∏
k
=
1
n
φ
X
k
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X_{1}+\,\cdots \,+X_{n}}(t)=\prod _{k=1}^{n}\varphi _{X_{k}}(t)}
(per consegüent, el producte de funcions característiques també és una funció característica).
Se sap que la transformada de Fourier d'un producte de convolució és el producte ordinari de les transformades de Fourier.
Tenint en compte el teorema d'unicitat, la relació precedent s'interpreta així: si les variables aleatòries
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},\,X_{2},\,\dots ,X_{n}}
són independents , aleshores:
P
X
1
+
⋯
+
X
n
=
P
X
1
⋆
⋯
⋆
P
X
n
{\displaystyle \mathbb {P} _{X_{1}+\,\cdots \,+X_{n}}=\mathbb {P} _{X_{1}}\star \cdots \star \mathbb {P} _{X_{n}}}
: la distribució de probabilitat de la suma és el producte de convolució de les distribucions dels termes.
Per determinar la distribució de la suma, els dos punts de vista (producte de convolució de les distribucions de probabilitat, producte ordinari de les funcions característiques) són matemàticament equivalents. Tanmateix, el mètode de les funcions característiques és generalment més simple d'utilitzar.
Aplicació: estabilitat d'algunes distribucions de probabilitat
modifica
Siguin n variables aleatòries reals independents
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},\,X_{2},\,\dots ,X_{n}}
.
si per a tot k ,
X
k
{\displaystyle X_{k}}
segueix la distribució binomial
B
(
m
k
,
p
)
{\displaystyle {\mathcal {B}}(m_{k},\,p)}
, aleshores
X
1
+
⋯
+
X
n
{\displaystyle X_{1}+\cdots +X_{n}}
segueix la distribució binomial
B
(
m
1
+
⋯
+
m
n
,
p
)
{\displaystyle {\mathcal {B}}(m_{1}+\cdots +m_{n},\,p)}
si per a tot k ,
X
k
{\displaystyle X_{k}}
segueix la distribució de Poisson
P
(
λ
k
)
{\displaystyle {\mathcal {P}}(\lambda _{k})}
, aleshores
X
1
+
⋯
+
X
n
{\displaystyle X_{1}+\cdots +X_{n}}
segueix la distribució de Poisson
P
(
λ
1
+
⋯
+
λ
n
)
{\displaystyle {\mathcal {P}}(\lambda _{1}+\cdots +\lambda _{n})}
si per a tot k ,
X
k
{\displaystyle X_{k}}
segueix la distribució normal
N
(
μ
k
,
σ
k
2
)
{\displaystyle {\mathcal {N}}(\mu _{k},\,\sigma _{k}^{2})}
, aleshores
X
1
+
⋯
+
X
n
{\displaystyle X_{1}+\cdots +X_{n}}
segueix la distribució normal
N
(
μ
1
+
⋯
+
μ
n
,
σ
1
2
+
⋯
+
σ
n
2
)
{\displaystyle {\mathcal {N}}(\mu _{1}+\cdots +\mu _{n},\,\sigma _{1}^{2}+\cdots +\sigma _{n}^{2})}
si per a tot k ,
X
k
{\displaystyle X_{k}}
segueix la distribució de Cauchy
C
(
m
k
,
γ
k
)
{\displaystyle {\mathcal {C}}(m_{k},\,\gamma _{k})}
, aleshores
X
1
+
⋯
+
X
n
{\displaystyle X_{1}+\cdots +X_{n}}
segueix la distribució de Cauchy
C
(
m
1
+
⋯
+
m
n
,
γ
1
+
⋯
+
γ
n
)
{\displaystyle {\mathcal {C}}(m_{1}+\cdots +m_{n},\,\gamma _{1}+\cdots +\gamma _{n})}
Prova de l'estabilitat
Provem (per exemple) la segona afirmació (la prova de les altres és anàloga):
∀
t
∈
R
,
φ
X
1
+
⋯
+
X
n
(
t
)
=
∏
k
=
1
n
φ
X
k
(
t
)
=
∏
k
=
1
n
e
λ
k
(
e
i
t
−
1
)
=
e
λ
(
e
i
t
−
1
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X_{1}+\,\cdots \,+X_{n}}(t)=\prod _{k=1}^{n}\varphi _{X_{k}}(t)=\prod _{k=1}^{n}\mathrm {e} ^{\lambda _{k}\,\left(\mathrm {e} ^{i\,t}-1\right)}=\mathrm {e} ^{\lambda \,\left(\mathrm {e} ^{i\,t}-1\right)}}
on
λ
=
λ
1
+
⋯
+
λ
n
{\displaystyle \lambda =\lambda _{1}+\cdots +\lambda _{n}}
.
Es reconeix la funció característica de la distribució de Poisson
P
(
λ
)
{\displaystyle {\mathcal {P}}(\lambda )}
; segons el teorema d'unicitat, la variable aleatòria
X
1
+
⋯
+
X
n
{\displaystyle X_{1}+\,\cdots \,+X_{n}}
segueix aquesta distribució.
Funció característica i moments
modifica
Sigui una variable aleatòria real X .
Si el moment d'ordre m d'X existeix (finit), aleshores:
la funció característica
φ
X
{\displaystyle \varphi _{X}}
és de classe
C
m
{\displaystyle \operatorname {C} ^{m}}
en
R
{\displaystyle \mathbb {R} }
∀
k
∈
{
0
,
…
,
m
}
,
E
(
X
k
)
=
(
−
i
)
k
φ
X
(
k
)
(
0
)
{\displaystyle \forall \,k\in \{0,\dots ,m\},\,\operatorname {E} \left(X^{k}\right)=(-i)^{k}\,\varphi _{X}^{(k)}(0)}
, i per tant:
∀
t
∈
R
,
φ
X
(
t
)
=
(
∑
k
=
0
m
i
k
E
(
X
k
)
k
!
t
k
)
+
t
m
ε
m
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X}(t)=\left(\sum _{k=0}^{m}{\frac {i^{k}\,\operatorname {E} (X^{k})}{k\,!}}\,t^{k}\right)+t^{m}\,\varepsilon _{m}(t)}
, on
ε
m
(
t
)
→
0
quan
t
→
0
{\displaystyle \varepsilon _{m}(t)\to 0{\text{ quan }}t\to 0}
.
Si
φ
X
{\displaystyle \varphi _{X}}
és m vegades derivable en el punt 0, aleshores:
per a tot natural k tal que
2
k
≤
m
{\displaystyle \ 2\,k\leq m}
el moment d'ordre k d'X existeix i:
E
(
X
k
)
=
(
−
i
)
k
φ
X
(
k
)
(
0
)
{\displaystyle \operatorname {E} \left(X^{k}\right)=(-i)^{k}\,\varphi _{X}^{(k)}(0)}
En particular, si
φ
X
{\displaystyle \varphi _{X}}
és infinitament derivable en el punt 0, aleshores tots els moments d'X existeixen.
Si la variable aleatòria X segueix la distribució de Poisson
P
(
λ
)
{\displaystyle {\mathcal {P}}(\lambda )}
, la seva funció característica és infinitament derivable en
R
{\displaystyle \mathbb {R} }
: tots els moments d'X existeixen. Es comprova fàcilment que:
φ
X
′
(
0
)
=
λ
i
;
φ
X
″
(
0
)
=
−
λ
−
λ
2
{\displaystyle \varphi '_{X}(0)=\lambda \,i{\text{; }}\varphi ''_{X}(0)=-\lambda -\lambda ^{2}}
.
Per tant:
E
(
X
)
=
−
i
φ
X
′
(
0
)
=
λ
{\displaystyle \operatorname {E} (X)=-i\,\varphi '_{X}(0)=\lambda }
,
E
(
X
2
)
=
−
φ
X
″
(
0
)
=
λ
+
λ
2
{\displaystyle \operatorname {E} (X^{2})=-\varphi ''_{X}(0)=\lambda +\lambda ^{2}}
, i
Var
(
X
)
=
E
(
X
2
)
−
[
E
(
X
)
]
2
=
λ
{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-\left[\operatorname {E} (X)\right]^{2}=\lambda }
(també es poden calcular directament com a sumes de sèries convergents).
Aquest teorema permet estudiar la convergència en distribució de les successions de variables aleatòries per mitjà de la convergència puntual de les seves funcions característiques.
Una successió
(
X
n
)
n
∈
N
{\displaystyle \left(X_{n}\right)_{n\,\in \,\mathbb {N} }}
de variables aleatòries reals convergeix en distribució cap a una variable aleatòria real X si i només si:
∀
t
∈
R
,
φ
X
n
(
t
)
→
φ
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\varphi _{X_{n}}(t)\to \varphi (t)}
quan
n
→
+
∞
{\displaystyle n\to +\infty }
, on
φ
:
R
→
C
{\displaystyle \varphi :\mathbb {R} \to \mathbb {C} }
és una funció contínua en el punt 0.
En aquest cas,
φ
{\displaystyle \varphi }
és la funció característica d'X .
Una successió
(
X
n
)
n
∈
N
{\displaystyle \left(X_{n}\right)_{n\,\in \,\mathbb {N} }}
de variables aleatòries reals convergeix en distribució cap a una variable aleatòria real X si i només si:
∀
t
∈
R
,
φ
X
n
(
t
)
→
φ
X
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\varphi _{X_{n}}(t)\to \varphi _{X}(t)}
quan
n
→
+
∞
{\displaystyle n\to +\infty }
.
La segona versió exigeix que sigui coneguda per endavant la distribució límit.
Heus aquí unes quantes aplicacions clàssiques del teorema de continuïtat de Lévy.
Una aplicació clàssica del teorema de continuïtat de Lévy és la prova del teorema del límit central .
Teorema de convergència de Poisson
modifica
Una segona aplicació clàssica és la prova del teorema de convergència de Poisson :
Sigui una successió real
(
λ
n
)
n
∈
N
∗
{\displaystyle \left(\lambda _{n}\right)_{n\,\in \,\mathbb {N} ^{\ast }}}
tal que
lim
n
→
+
∞
λ
n
=
λ
{\displaystyle \lim _{n\to +\infty }\lambda _{n}=\lambda }
(on
λ
>
0
{\displaystyle \ \lambda >0}
) i per a tot n ,
0
≤
λ
n
≤
n
{\displaystyle 0\leq \lambda _{n}\leq n}
.
Si per a tot n , la variable aleatòria
X
n
{\displaystyle X_{n}}
segueix la distribució binomial
B
(
n
,
λ
n
n
)
{\displaystyle {\mathcal {B}}\left(n,\,{\frac {\lambda _{n}}{n}}\right)}
, aleshores la successió
(
X
n
)
n
∈
N
∗
{\displaystyle \left(X_{n}\right)_{n\,\in \,\mathbb {N} ^{\ast }}}
convergeix en distribució cap a una variable aleatòria X amb distribució
P
(
λ
)
{\displaystyle {\mathcal {P}}(\lambda )}
.
Prova
En efecte:
∀
t
∈
R
,
∀
n
∈
N
∗
,
φ
X
n
(
t
)
=
(
λ
n
n
e
i
t
+
1
−
λ
n
n
)
n
=
(
1
+
u
n
n
)
n
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall n\in \mathbb {N} ^{\ast },\,\varphi _{X_{n}}(t)=\left({\frac {\lambda _{n}}{n}}\,\mathrm {e} ^{i\,t}+1-{\frac {\lambda _{n}}{n}}\right)^{n}=\left(1+{\frac {u_{n}}{n}}\right)^{n}}
, on
u
n
=
λ
n
(
e
i
t
−
1
)
→
λ
(
e
i
t
−
1
)
{\displaystyle u_{n}=\lambda _{n}\,\left(\mathrm {e} ^{i\,t}-1\right)\to \lambda \,\left(\mathrm {e} ^{i\,t}-1\right)}
quan
n
→
+
∞
{\displaystyle n\to +\infty }
; per tant:
∀
t
∈
R
,
φ
X
n
(
t
)
→
e
λ
(
e
i
t
−
1
)
=
φ
X
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{X_{n}}(t)\to \mathrm {e} ^{\lambda \,\left(\mathrm {e} ^{i\,t}-1\right)}=\varphi _{X}(t)}
quan
n
→
+
∞
{\displaystyle n\to +\infty }
;
tenint en compte el teorema de continuïtat de Lévy, això acaba la prova.
Una tercera aplicació clàssica és la prova de la llei feble dels grans nombres per a variables aleatòries integrables (és a dir amb esperança finita) i independents. S'enuncia així:
Donada una successió
(
X
n
)
n
∈
N
∗
{\displaystyle (X_{n})_{\,n\,\in \,\mathbb {N} ^{\ast }}}
de variables aleatòries reals (definides sobre el mateix espai de probabilitat) independents i idènticament distribuïdes (abreujadament i.i.d), amb esperança finita, es posa:
μ
=
E
(
X
n
)
{\displaystyle \mu =\operatorname {E} (X_{n})}
.
Si es defineix per a tot n :
X
n
¯
=
X
1
+
⋯
+
X
n
n
=
S
n
n
{\displaystyle {\overline {X_{n}}}={\frac {X_{1}+\cdots +X_{n}}{n}}={\frac {S_{n}}{n}}}
, on
S
n
=
X
1
+
⋯
+
X
n
{\displaystyle S_{n}=X_{1}+\cdots +X_{n}}
,
aleshores la successió
(
X
n
¯
)
n
∈
N
∗
{\displaystyle {\Big (}{\overline {X_{n}}}{\Big )}_{\,n\,\in \,\mathbb {N} ^{\ast }}}
convergeix en distribució cap a la constant
μ
{\displaystyle \mu }
.
Prova
En efecte:
les variables aleatòries
X
1
,
X
2
,
…
{\displaystyle X_{1},\,X_{2},\,\dots }
tenen la mateixa funció característica que denotem per
φ
{\displaystyle \varphi }
(sense índex). Com que per a tot n ,
E
(
X
n
)
=
μ
{\displaystyle \operatorname {E} (X_{n})=\mu }
(moment d'ordre 1) existeix:
∀
t
∈
R
,
φ
(
t
)
=
1
+
i
μ
t
+
t
ε
1
(
t
)
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi (t)=1+i\,\mu \,t+t\,\varepsilon _{1}(t)}
, on
ε
1
(
t
)
→
0
{\displaystyle \varepsilon _{1}(t)\to 0}
quan
t
→
0
{\displaystyle \ t\to 0}
.
Per independència:
∀
t
∈
R
,
∀
n
∈
N
∗
,
φ
S
n
(
t
)
=
∏
k
=
1
n
φ
(
t
)
=
[
φ
(
t
)
]
n
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,n\in \mathbb {N} ^{\ast },\,\varphi _{S_{n}}(t)=\prod _{k=1}^{n}\varphi (t)=\left[\varphi (t)\right]^{n}}
.
Aleshores:
∀
t
∈
R
,
∀
n
∈
N
∗
,
φ
X
¯
n
(
t
)
=
φ
S
n
n
(
t
)
=
φ
S
n
(
t
n
)
=
[
φ
(
t
n
)
]
n
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,n\in \mathbb {N} ^{\ast },\,\varphi _{\;{\overline {X}}_{n}}(t)=\varphi _{\frac {S_{n}}{n}}(t)=\varphi _{S_{n}}\left({\frac {t}{n}}\right)=\left[\varphi \left({\frac {t}{n}}\right)\right]^{n}}
,
altrament dit:
∀
t
∈
R
,
∀
n
∈
N
∗
,
φ
X
¯
n
(
t
)
=
[
1
+
i
μ
t
n
+
t
n
ε
1
(
t
n
)
]
n
{\displaystyle \forall \,t\in \mathbb {R} ,\,\forall \,n\in \mathbb {N} ^{\ast },\,\varphi _{\;{\overline {X}}_{n}}(t)=\left[1+i\,{\frac {\mu \,t}{n}}+{\frac {t}{n}}\,\varepsilon _{1}\left({\frac {t}{n}}\right)\right]^{n}}
i se'n dedueix:
∀
t
∈
R
,
φ
X
¯
n
(
t
)
→
ψ
(
t
)
=
e
i
μ
t
{\displaystyle \forall \,t\in \mathbb {R} ,\,\varphi _{\;{\overline {X}}_{n}}(t)\to \psi (t)=\mathrm {e} ^{i\,\mu \,t}}
quan
n
→
+
∞
{\displaystyle n\to +\infty }
.
La funció
ψ
:
R
→
C
{\displaystyle \psi :\mathbb {R} \to \mathbb {C} }
és la funció característica de la variable aleatòria constant amb valor
μ
{\displaystyle \mu }
; això acaba la prova si es té en compte el teorema de continuïtat de Lévy.
Remarca : se sap que la convergència en distribució cap a una constant equival a la convergència en probabilitat cap a la mateixa constant.
Sigui
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
un vector aleatori de dimensió
d
{\displaystyle d}
, és a dir, una aplicació
X
=
(
X
1
,
…
,
X
d
)
:
Ω
→
R
d
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d}):\Omega \to \mathbb {R} ^{d}}
tal que cada component
X
j
,
j
=
1
,
…
,
d
{\displaystyle X_{j},\ j=1,\dots ,d}
és una variable aleatòria. La seva funció característica és l'aplicació
φ
X
:
R
d
→
C
{\displaystyle \varphi _{\boldsymbol {X}}:\mathbb {R} ^{d}\to \mathbb {C} }
definida per
φ
X
(
t
1
,
…
,
t
d
)
=
E
[
e
i
(
t
1
X
1
+
⋯
+
t
d
X
d
)
]
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=E[e^{i(t_{1}X_{1}+\cdots +t_{d}X_{d})}],\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Amb notació vectorial, si designem per
<
s
,
t
>=
∑
j
=
1
d
s
j
t
j
{\textstyle <{\boldsymbol {s}},{\boldsymbol {t}}>=\sum _{j=1}^{d}s_{j}t_{j}}
el producte escalar ordinari de dos vectors
s
=
(
s
1
,
…
,
s
d
)
i
t
=
(
t
1
,
…
,
t
d
)
{\displaystyle {\boldsymbol {s}}=(s_{1},\dots ,s_{d})\ {\text{i}}\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})}
,
φ
X
(
t
)
=
E
[
e
i
<
t
,
X
>
]
,
t
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=E[e^{i\,<{\boldsymbol {t}},{\boldsymbol {X}}>}],\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.}
Quan no hi hagi confusió, escriurem
φ
{\displaystyle \varphi }
en lloc de
φ
X
{\displaystyle \varphi _{\boldsymbol {X}}}
.
Càlcul de la funció característica
modifica
Sigui
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
un vector aleatori discret amb funció de probabilitat
p
X
(
x
1
,
…
,
x
d
)
{\displaystyle p_{\boldsymbol {X}}(x_{1},\dots ,x_{d})}
. Aleshores la seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
∑
x
1
,
…
,
x
d
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
p
X
(
x
1
,
…
,
x
d
)
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\sum _{x_{1},\dots ,x_{d}}e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,p_{\boldsymbol {X}}(x_{1},\dots ,x_{d}),\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Si
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
és un vector aleatori amb funció de densitat
f
X
(
x
1
,
…
,
x
d
)
{\displaystyle f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})}
. Aleshores la seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
∫
−
∞
∞
⋯
∫
−
∞
∞
e
i
(
t
1
x
1
+
⋯
+
t
d
x
d
)
f
X
(
x
1
,
…
,
x
d
)
d
x
1
⋯
d
x
d
,
(
t
1
,
…
,
t
d
)
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }e^{i(t_{1}x_{1}+\cdots +t_{d}x_{d})}\,f_{\boldsymbol {X}}(x_{1},\dots ,x_{d})\,dx_{1}\cdots dx_{d},\quad (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}.}
Les propietats de les funcions característiques unidimensionals es trasllades al cas vectorial. Les següents propietats es troben a Sato; per a les demostracions completes vegeu Cuppens.
φ
(
0
)
=
1
{\displaystyle \varphi ({\boldsymbol {0}})=1}
, on
0
=
(
0
,
…
,
0
)
{\displaystyle {\boldsymbol {0}}=(0,\dots ,0)}
.
|
φ
(
t
)
|
≤
1
,
∀
t
∈
R
d
{\displaystyle \vert \varphi ({\boldsymbol {t}})\vert \leq 1,\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d}}
.
la funció
φ
{\displaystyle \varphi }
és uniformement contínua.
La funció
φ
{\displaystyle \varphi }
és hermítica:
φ
(
−
t
)
=
φ
(
t
)
¯
.
{\displaystyle \varphi (-{\boldsymbol {t}})={\overline {\varphi ({\boldsymbol {t}})}}.}
En aquesta propietat és convenient escriure tots els vectors en columna, tal com és habitual en Àlgebra lineal . Designarem per
U
′
{\displaystyle {\boldsymbol {U}}'}
la transposada d'una matriu (o vector)
U
{\displaystyle {\boldsymbol {U}}}
. Sigui
X
=
(
X
1
,
…
,
X
d
)
′
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'}
un vector aleatori,
b
=
(
b
1
,
…
,
b
k
)
′
{\displaystyle {\boldsymbol {b}}=(b_{1},\dots ,b_{k})'}
un vector d'escalars i
A
{\displaystyle {\boldsymbol {A}}}
una matriu
k
×
d
{\displaystyle k\times d}
. Definim
Y
=
A
X
+
b
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {A\,X}}+{\boldsymbol {b}}.}
Aleshores,
φ
Y
(
t
)
=
e
i
<
t
,
b
>
φ
X
(
A
′
t
)
=
e
i
t
′
b
φ
X
(
A
′
t
)
,
t
=
(
t
1
,
…
,
t
k
)
′
∈
R
k
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i\,<{\boldsymbol {t}},{\boldsymbol {b}}>}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {b}}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {A't}}),\quad {\boldsymbol {t}}=(t_{1},\dots ,t_{k})'\in \mathbb {R} ^{k}.}
Teorema d'inversió. Necessitem algunes notacions: Recordem que un conjunt
B
∈
B
(
R
d
)
{\displaystyle B\in {\mathcal {B}}(\mathbb {R} ^{d})}
, on
B
(
R
d
)
{\displaystyle {\mathcal {B}}(\mathbb {R} ^{d})}
és la
σ
{\displaystyle \sigma }
-àlgebra de Borel sobre
R
d
{\displaystyle \mathbb {R} ^{d}}
, es diu que és un conjunt de continuïtat de (la distribució de)
X
{\displaystyle {\boldsymbol {X}}}
si
P
(
X
∈
∂
B
)
=
0
{\displaystyle P(X\in \partial B)=0}
, on
∂
B
{\displaystyle \partial B}
és la frontera de
B
{\displaystyle B}
. Donats dos vectors,
a
=
(
a
1
,
…
,
a
d
)
i
b
=
(
b
1
,
…
,
b
d
)
{\displaystyle {\boldsymbol {a}}=(a_{1},\dots ,a_{d})\ {\text{i}}\ {\boldsymbol {b}}=(b_{1},\dots ,b_{d})}
escriurem
a
<
b
{\displaystyle {\boldsymbol {a}}<{\boldsymbol {b}}}
(respectivament
a
≤
b
{\displaystyle {\boldsymbol {a}}\leq {\boldsymbol {b}}}
) si
a
j
<
b
j
,
j
=
1
,
…
,
d
{\displaystyle a_{j}<b_{j},\ j=1,\dots ,d}
(respectivament
a
j
≤
b
j
,
j
=
1
,
…
,
d
{\displaystyle a_{j}\leq b_{j},\ j=1,\dots ,d}
). Si
a
≤
b
{\displaystyle {\boldsymbol {a}}\leq {\boldsymbol {b}}}
designarem per
(
a
,
b
)
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})}
el conjunt
(
a
,
b
)
=
{
x
∈
R
d
:
a
<
x
<
b
}
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})=\{{\boldsymbol {x}}\in \mathbb {R} ^{d}:\ {\boldsymbol {a}}<{\boldsymbol {x}}<{\boldsymbol {b}}\}}
; de manera anàloga es defineix
[
a
,
b
]
{\displaystyle [{\boldsymbol {a}},{\boldsymbol {b}}]}
. Si
(
a
,
b
)
{\displaystyle ({\boldsymbol {a}},{\boldsymbol {b}})}
és un conjunt de continuïtat de
X
{\displaystyle {\boldsymbol {X}}}
, aleshores
P
(
X
∈
(
a
,
b
)
)
=
1
(
2
π
)
d
lim
τ
1
→
∞
⋯
lim
τ
d
→
∞
∫
−
τ
1
τ
1
⋯
∫
−
τ
d
τ
d
∏
j
=
1
d
e
−
i
t
j
a
j
−
e
i
t
j
b
j
i
t
j
φ
(
t
1
,
…
,
t
d
)
d
t
1
⋯
d
t
d
.
{\displaystyle P{\big (}X\in ({\boldsymbol {a}},{\boldsymbol {b}}){\big )}={\frac {1}{(2\pi )^{d}}}\lim _{\tau _{1}\to \infty }\cdots \lim _{\tau _{d}\to \infty }\int _{-\tau _{1}}^{\tau _{1}}\cdots \int _{-\tau _{d}}^{\tau _{d}}\prod _{j=1}^{d}{\frac {e^{-it_{j}a_{j}}-e^{it_{j}b_{j}}}{it_{j}}}\,\varphi (t_{1},\dots ,t_{d})\,dt_{1}\cdots dt_{d}.}
Teorema d'unicitat. si
X
{\displaystyle {\boldsymbol {X}}}
i
Y
{\displaystyle {\boldsymbol {Y}}}
són dos vectors aleatoris, amb funcions característiques
φ
X
{\displaystyle \varphi _{\boldsymbol {X}}}
i
φ
Y
{\displaystyle \varphi _{\boldsymbol {Y}}}
respectivament, tals que
φ
X
(
t
)
=
φ
Y
(
t
)
,
∀
t
∈
R
d
,
{\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=\varphi _{\boldsymbol {Y}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},}
aleshores
X
{\displaystyle {\boldsymbol {X}}}
i
Y
{\displaystyle {\boldsymbol {Y}}}
tenen la mateixa distribució . Evidentment, el recíproc també és cert.
Funció característica i independència. Les variables aleatòries
(
X
1
,
…
,
X
k
)
{\displaystyle (X_{1},\dots ,X_{k})}
són independents si i només si
φ
(
X
1
,
…
,
X
k
)
(
t
1
,
…
,
t
k
)
=
φ
X
1
(
t
1
)
⋯
φ
X
k
(
t
k
)
,
∀
t
1
,
…
,
t
k
∈
R
.
{\displaystyle \varphi _{(X_{1},\dots ,X_{k})}(t_{1},\dots ,t_{k})=\varphi _{X_{1}}(t_{1})\cdots \varphi _{X_{k}}(t_{k}),\quad \forall t_{1},\dots ,t_{k}\in \mathbb {R} .}
Més generalment, els vectors aleatoris
d
{\displaystyle d}
-dimensionals
X
1
,
…
,
X
k
{\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k}}
són independents si i només si
φ
(
X
1
,
…
,
X
k
)
(
t
1
,
…
,
t
k
)
=
φ
X
1
(
t
1
)
⋯
φ
X
k
(
t
k
)
,
∀
t
1
,
…
,
t
k
∈
R
d
.
{\displaystyle \varphi _{({\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k})}({\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}}_{1})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}_{k}),\quad \forall {\boldsymbol {t}}_{1},\dots ,{\boldsymbol {t}}_{k}\in \mathbb {R} ^{d}.}
Funció característica i suma de vectors aleatoris independents. Siguin
X
1
,
…
,
X
k
{\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k}}
vectors aleatoris
d
{\displaystyle d}
-dimensionals independents i posem
Y
=
X
1
+
⋯
+
X
k
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {X}}_{1}+\cdots +{\boldsymbol {X}}_{k}.}
Aleshores
φ
Y
(
t
)
=
φ
X
1
(
t
)
⋯
φ
X
k
(
t
)
,
∀
t
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=\varphi _{{\boldsymbol {X}}_{1}}({\boldsymbol {t}})\cdots \varphi _{{\boldsymbol {X}}_{k}}({\boldsymbol {t}}),\quad \forall {\boldsymbol {t}}\in \mathbb {R} ^{d}.}
Funció característica i moments. Recordem que es diu que un vector aleatori
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
té moment d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
, on
n
1
≥
0
,
…
,
n
d
≥
0
{\displaystyle n_{1}\geq 0,\dots ,n_{d}\geq 0}
, si
E
[
|
X
1
n
1
⋯
X
d
n
d
|
]
<
∞
{\displaystyle E{\big [}{\big \vert }X_{1}^{n_{1}}\cdots X_{d}^{n_{d}}{\big \vert }{\big ]}<\infty }
, i, en aquest cas, es defineix el moment d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
per
m
(
n
1
,
…
,
n
d
)
=
E
[
X
1
n
1
⋯
X
d
n
d
]
.
{\displaystyle m_{(n_{1},\dots ,n_{d})}=E{\big [}X_{1}^{n_{1}}\cdots X_{d}^{n_{d}}{\big ]}.}
Si el vector aleatori
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
compleix que
E
[
‖
X
‖
m
]
<
∞
{\displaystyle E{\big [}\Vert {\boldsymbol {X}}\Vert ^{m}{\big ]}<\infty }
, on
‖
x
‖
=
∑
j
=
1
d
x
j
2
{\textstyle \Vert {\boldsymbol {x}}\Vert ={\sqrt {\sum _{j=1}^{d}x_{j}^{2}}}}
és la norma d'un vector
x
{\displaystyle {\boldsymbol {x}}}
, aleshores la funció característica
φ
{\displaystyle \varphi }
és de classe
C
m
{\displaystyle {\mathcal {C}}^{m}}
i per a qualsevol
n
1
,
…
,
n
d
≥
0
{\displaystyle n_{1},\dots ,n_{d}\geq 0}
, amb
∑
j
=
1
d
n
j
≤
m
{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}
,
E
(
X
1
n
1
⋯
X
k
n
d
)
=
1
i
n
1
+
⋯
+
n
d
∂
n
1
+
⋯
+
n
d
∂
t
1
n
1
⋯
∂
t
k
n
d
φ
(
t
1
…
,
t
d
)
|
t
1
=
0
,
…
,
t
d
=
0
.
{\displaystyle E(X_{1}^{n_{1}}\cdots X_{k}^{n_{d}})={\frac {1}{i^{n_{1}+\cdots +n_{d}}}}\,{\frac {\partial ^{n_{1}+\cdots +n_{d}}}{\partial t_{1}^{n_{1}}\cdots \partial t_{k}^{n_{d}}}}\,\varphi (t_{1}\dots ,t_{d}){\Big \vert }_{t_{1}=0,\dots ,t_{d}=0}.}
Recíprocament, si la funció característica
φ
{\displaystyle \varphi }
és de classe
C
m
{\displaystyle {\mathcal {C}}^{m}}
per a
m
{\displaystyle m}
parell, aleshores el vector
X
{\displaystyle {\boldsymbol {X}}}
té moments d'ordre
(
n
1
,
…
,
n
d
)
{\displaystyle (n_{1},\dots ,n_{d})}
per qualsevol
n
1
,
…
,
n
d
≥
0
{\displaystyle n_{1},\dots ,n_{d}\geq 0}
, amb
∑
j
=
1
d
n
j
≤
m
{\displaystyle \sum _{j=1}^{d}n_{j}\leq m}
.
Funció característica i convergència en distribució. Sigui
(
X
n
)
n
∈
N
{\displaystyle ({\boldsymbol {X}}_{n})_{n\in \mathbb {N} }}
una successió de vectors aleatoris
d
{\displaystyle d}
-dimensionals. Designem per
φ
X
n
{\displaystyle \varphi _{{\boldsymbol {X}}_{n}}}
la funció característica del vector
X
n
{\displaystyle {\boldsymbol {X}}_{n}}
. Aleshores la successió convergeix en distribució a un vector aleatori
X
{\displaystyle {\boldsymbol {X}}}
si i només si
∀
t
∈
R
d
,
φ
X
n
(
t
)
→
ϕ
(
t
)
,
quan
n
→
∞
,
{\displaystyle \forall {\boldsymbol {t}}\in \mathbb {R} ^{d},\ \varphi _{{\boldsymbol {X}}_{n}}({\boldsymbol {t}})\to \phi ({\boldsymbol {t}}),\ {\text{quan}}\ n\to \infty ,}
on
ϕ
:
R
d
→
C
{\displaystyle \phi :\mathbb {R} ^{d}\to \mathbb {C} }
és una funció contínua en
0
{\displaystyle {\boldsymbol {0}}}
. En aquest cas,
ϕ
{\displaystyle \phi }
és la funció característica de
X
{\displaystyle {\boldsymbol {X}}}
Considerem un experiment que pot tenir
d
{\displaystyle d}
resultats diferents, que designarem per
R
1
,
…
,
R
d
{\displaystyle R_{1},\dots ,R_{d}}
, amb probabilitats
p
1
,
…
,
p
d
∈
(
0
,
1
)
{\displaystyle p_{1},\dots ,p_{d}\in (0,1)}
,
p
1
+
⋯
+
p
d
=
1
{\displaystyle p_{1}+\cdots +p_{d}=1}
. Fem
n
{\displaystyle n}
repeticions independents i denotem per
X
1
{\displaystyle X_{1}}
el nombre de vegades que obtenim el resultat
R
1
{\displaystyle R_{1}}
, per
X
2
{\displaystyle X_{2}}
el nombre de vegades que obtenim el resultat
R
2
{\displaystyle R_{2}}
, i així successivament. Aleshores la probabilitat d'obtenir
x
1
{\displaystyle x_{1}}
vegades el resultat
R
1
{\displaystyle R_{1}}
,
x
2
{\displaystyle x_{2}}
vegades el resultat
R
2
{\displaystyle R_{2}}
, etc. amb
x
1
+
⋯
+
x
n
=
n
{\displaystyle x_{1}+\cdots +x_{n}=n}
és
p
(
X
1
,
…
,
X
d
)
(
x
1
,
…
,
x
d
)
=
P
(
X
1
=
x
1
,
…
,
X
d
=
x
d
)
=
n
!
x
1
!
⋯
x
d
!
p
1
x
1
⋯
p
d
x
d
.
{\displaystyle p_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,x_{d})=P(X_{1}=x_{1},\dots ,X_{d}=x_{d})={\frac {n!}{x_{1}!\cdots x_{d}!}}\,p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}.}
Es diu que el vector
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
segueix una distribució multinomial [ 5] [ 6] de paràmetres
n
,
p
1
,
…
,
p
d
{\displaystyle n,p_{1},\dots ,p_{d}}
, i s'escriu
X
∼
M
(
n
;
p
1
,
…
,
p
d
)
{\displaystyle {\boldsymbol {X}}\sim {\mathcal {M}}(n;p_{1},\dots ,p_{d})}
. Cal notar que cada component
X
j
{\displaystyle X_{j}}
té una distribució binomial de paràmetres
n
{\displaystyle n}
i
p
j
{\displaystyle p_{j}}
,
X
j
∼
B
(
n
,
p
j
)
{\displaystyle X_{j}\sim B(n,p_{j})}
. De fet, una distribució multinomial és una extensió de la distribució binomial quan hi ha més de dos resultats possibles. La funció característica del vector
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})}
és
φ
(
t
1
,
…
,
t
d
)
=
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
,
t
1
,
…
,
t
d
∈
R
.
{\displaystyle \varphi (t_{1},\dots ,t_{d})={\big (}p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}}{\big )}^{n},\ t_{1},\dots ,t_{d}\in \mathbb {R} .}
Càcul de la funció característica
Per a
t
1
,
…
,
t
d
{\displaystyle t_{1},\dots ,t_{d}}
,
φ
(
t
1
,
…
,
t
d
)
=
E
(
e
i
∑
j
=
1
d
t
j
X
j
)
=
∑
x
1
,
…
,
x
d
∈
{
0
,
…
,
n
}
,
∑
j
=
1
d
x
j
=
n
n
!
x
1
!
⋯
x
d
!
e
i
∑
j
=
1
d
t
j
x
j
p
1
x
1
⋯
p
d
x
d
=
∑
x
1
,
…
,
x
d
∈
{
0
,
…
,
n
}
,
∑
j
=
1
d
x
j
=
n
n
!
x
1
!
⋯
x
d
!
(
p
1
e
i
t
1
)
x
1
⋯
(
p
d
e
i
t
d
)
x
d
=
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
,
{\displaystyle {\begin{aligned}\varphi (t_{1},\dots ,t_{d})&=E(e^{i\sum _{j=1}^{d}t_{j}X_{j}})=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,e^{i\sum _{j=1}^{d}t_{j}x_{j}}p_{1}^{x_{1}}\cdots p_{d}^{x_{d}}\\&=\sum _{x_{1},\dots ,x_{d}\in \{0,\dots ,n\}, \atop \sum _{j=1}^{d}x_{j}=n}{\frac {n!}{x_{1}!\cdots x_{d}!}}\,{\big (}p_{1}e^{it_{1}}{\big )}^{x_{1}}\cdots {\big (}p_{d}e^{it_{d}})^{x_{d}}={\big (}p_{1}e^{it_{1}}+\dots +p_{d}e^{it_{d}}{\big )}^{n},\end{aligned}}}
on a l'última igualtat hem aplicat la
fórmula
(
a
1
+
a
2
+
⋯
+
a
d
)
n
=
∑
(
n
x
1
,
…
,
x
d
)
a
1
x
1
⋯
a
d
x
d
,
{\displaystyle (a_{1}+a_{2}+\cdots +a_{d})^{n}=\sum {\binom {n}{x_{1},\dots ,x_{d}}}a_{1}^{x_{1}}\cdots a_{d}^{x_{d}},}
on la suma es fa sobre totes les
d
{\displaystyle d}
-
ples
(
x
1
,
…
,
x
d
)
∈
{
0
,
1
,
…
,
n
}
d
{\displaystyle (x_{1},\dots ,x_{d})\in \mathbb {\{} 0,1,\dots ,n\}^{d}}
tals que
x
1
+
⋯
+
x
d
=
n
{\displaystyle x_{1}+\cdots +x_{d}=n}
.
A partir d'aquesta funció característica podem calcular de manera senzilla
E
[
X
1
X
2
]
{\displaystyle E[X_{1}X_{2}]}
:
∂
2
∂
t
1
∂
t
2
φ
(
t
1
,
…
,
t
d
)
=
−
n
(
n
−
1
)
(
p
1
e
i
t
1
+
⋯
+
p
d
e
i
t
d
)
n
−
2
p
1
p
2
e
i
t
1
e
i
t
2
,
{\displaystyle {\frac {\partial ^{2}}{\partial t_{1}\partial t_{2}}}\varphi (t_{1},\dots ,t_{d})=-n(n-1)(p_{1}e^{it_{1}}+\cdots +p_{d}e^{it_{d}})^{n-2}p_{1}p_{2}e^{it_{1}}e^{it_{2}},}
d'on
E
(
X
1
X
2
)
=
n
(
n
−
1
)
p
1
p
2
.
{\displaystyle E(X_{1}X_{2})=n(n-1)p_{1}p_{2}.}
Distribució normal multivariant
modifica
Vegeu Anderson .[ 7] En aquest exemple escriurem tots els vectors en columna. Un vector aleatori
X
=
(
X
1
,
…
,
X
d
)
′
{\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'}
es diu que segueix una distribució normal
d
{\displaystyle d}
-dimensional
N
(
0
,
I
d
)
{\displaystyle {\mathcal {N}}({\boldsymbol {0}},{\boldsymbol {I}}_{d})}
on
I
d
{\displaystyle {\boldsymbol {I}}_{d}}
és la matriu identitat, si té funció de densitat
f
(
x
1
,
…
,
x
d
)
=
1
(
2
π
)
d
/
2
e
−
(
x
1
2
+
⋯
+
x
d
2
)
/
2
.
{\displaystyle f(x_{1},\dots ,x_{d})={\frac {1}{(2\pi )^{d/2}}}\,e^{-(x_{1}^{2}+\cdots +x_{d}^{2})/2}.}
Cal notar que les components del vector són independents, cadascuna amb una distribució normal estàndard
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. La seva funció característica és
φ
X
(
t
1
,
…
,
t
d
)
=
e
−
(
t
1
2
+
⋯
+
t
d
2
)
/
2
=
e
−
t
′
t
/
2
,
t
=
(
t
1
,
…
,
t
d
)
′
∈
R
d
.
{\displaystyle \varphi _{\boldsymbol {X}}(t_{1},\dots ,t_{d})=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}=e^{-{\boldsymbol {t}}'{\boldsymbol {t}}/2},\ {\boldsymbol {t}}=(t_{1},\dots ,t_{d})^{\prime }\in \mathbb {R} ^{d}.}
Càcul de la funció característica
Les variables
X
1
,
…
,
X
d
{\displaystyle X_{1},\dots ,X_{d}}
són independents i totes tenen distribució
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. En efecte, per exemple, la funció de densitat marginal de
X
1
{\displaystyle X_{1}}
és
f
X
1
(
x
1
)
=
∫
−
∞
∞
⋯
∫
−
∞
∞
f
(
X
1
,
…
,
X
d
)
(
x
1
,
…
,
x
d
)
d
x
2
⋯
d
x
d
=
1
2
π
e
−
x
1
2
/
2
1
2
π
∫
−
∞
∞
e
−
x
2
2
/
2
d
x
2
⋯
1
2
π
∫
−
∞
∞
e
−
x
d
2
/
2
d
x
d
=
1
2
π
e
−
x
1
2
/
2
.
{\displaystyle {\begin{aligned}f_{X_{1}}(x_{1})&=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,x_{d})\,dx_{2}\cdots dx_{d}\\&={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}\,{\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{2}^{2}/2}\,dx_{2}\cdots {\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }e^{-x_{d}^{2}/2}\,dx_{d}={\frac {1}{\sqrt {2\pi }}}\,e^{-x_{1}^{2}/2}.\end{aligned}}}
Per tant, d'una banda
X
1
∼
N
(
0
,
1
)
{\displaystyle X_{1}\sim {\mathcal {N}}(0,1)}
. I de l'altra, tenim que
f
(
X
1
,
…
,
X
d
)
(
x
1
,
…
,
x
d
)
=
f
X
1
(
x
1
)
⋯
f
X
d
(
x
d
)
,
∀
x
1
,
…
,
x
d
∈
R
,
{\displaystyle f_{(X_{1},\dots ,X_{d})}(x_{1},\dots ,{\boldsymbol {x}}_{d})=f_{X_{1}}(x_{1})\cdots f_{X_{d}}(x_{d}),\quad \forall x_{1},\dots ,x_{d}\in \mathbb {R} ,}
d'on
X
1
,
…
,
X
d
{\displaystyle X_{1},\dots ,X_{d}}
són independents. Aleshores, utilitzant la relació entre variables independents i funcions característiques i l'expressió de la funció característica de la distribució normal
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
que hem calculat abans, tenim que per qualsevol
t
1
,
…
t
d
∈
R
{\displaystyle t_{1},\dots t_{d}\in \mathbb {R} }
,
φ
(
X
1
,
…
,
X
d
)
(
t
1
,
…
,
t
d
)
=
φ
X
1
(
t
1
)
⋯
φ
X
d
(
t
d
)
=
e
−
t
1
2
/
2
⋯
e
−
t
d
2
/
2
=
e
−
(
t
1
2
+
⋯
+
t
d
2
)
/
2
.
{\displaystyle \varphi _{(X_{1},\dots ,X_{d})}(t_{1},\dots ,t_{d})=\varphi _{X_{1}}(t_{1})\cdots \varphi _{X_{d}}(t_{d})=e^{-t_{1}^{2}/2}\cdots e^{-t_{d}^{2}/2}=e^{-(t_{1}^{2}+\cdots +t_{d}^{2})/2}.}
Sigui
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
una matriu
d
×
d
{\displaystyle d\times d}
definida positiva[ 8] i
μ
=
(
μ
1
,
…
,
μ
d
)
′
{\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{d})^{\prime }}
un vector d'escalars. La matriu
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
té una matriu arrel quadrada
Σ
1
/
2
{\displaystyle \Sigma ^{1/2}}
definida positiva (i per tant simètrica) única,[ 9] que compleix
(
Σ
1
/
2
)
2
=
Σ
{\displaystyle {\big (}{\boldsymbol {\Sigma }}^{1/2}{\big )}^{2}={\boldsymbol {\Sigma }}}
. Definim
Y
=
Σ
1
/
2
X
+
μ
.
{\displaystyle {\boldsymbol {Y}}={\boldsymbol {\Sigma }}^{1/2}{\boldsymbol {X}}+{\boldsymbol {\mu }}.}
Per la fórmula que hem vist abans, la funció característica de
Y
{\displaystyle {\boldsymbol {Y}}}
serà, per <