Diferència entre revisions de la pàgina «Distribució gamma»

cap resum d'edició
(Creant l'entrada)
 
</math>
 
 
== Estimació dels paràmetres ==
=== Màxima versemblança ===
 
La funció de versemblança per a ''N'' observacions
[[variables aleatòries independents i identicament distribuïdes|iid]]
<math>(x_1,\ldots,x_N)</math> és
 
:<math>L(\theta)=\prod_{i=1}^N f(x_i;k,\theta)\,\!</math>
 
de la qual podem calcular la log-versemblança
 
:<math>\ell(\theta) = (k-1) \sum_{i=1}^N \ln{(x_i)} - \sum x_i/\theta - Nk\ln{(\theta)} - N\ln{\Gamma(k)}.</math>
 
L'[[estimador màxim-versemblant]] s'obté maximitzant la log-versemblança,
és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar
que la funció és convexa i que per tant té un sol extrem).
Proceding d'aquesta manera trobem que:
 
:<math>\hat{\theta} = \frac{1}{kN}\sum_{i=1}^N x_i. \,\!</math>
 
Substituint aquest resultat a l'expressió de la log-versemblança dona
 
:<math>\ell=(k-1)\sum_{i=1}^N\ln{(x_i)}-Nk-Nk\ln{\left(\frac{\sum x_i}{kN}\right)}-N\ln{(\Gamma(k))}. \,\!</math>
 
Per trobar el màxim respecte de ''k'' cal calcular la derivada i
igualar-la a zero, amb el qual s'obté:
 
:<math>\ln{(k)}-\psi(k)=\ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)}-\frac{1}{N}\sum_{i=1}^N\ln{(x_i)} \,\!</math>
 
on
 
:<math>\psi(k) = \frac{\Gamma'(k)}{\Gamma(k)} \!</math>
 
és la funció digamma.
No existeix cap fòrmula tancada per a ''k'', però la funció es comporta bé
numericament (és convexe), i per tant és senzill trobar-ne una solució numèrica,
per exemple amb el [[mètode de Newton]].
És possible trobar un valor inicial per a ''k''
emprant el [[mètode dels moments (estadística)|mètode dels moments]],
o emprant l'aproximació
 
:<math>\ln(k)-\psi(k) \approx \frac{1}{k}\left(\frac{1}{2} + \frac{1}{12k+2}\right). \,\!</math>
 
Si definim
 
:<math>s = \ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)} - \frac{1}{N}\sum_{i=1}^N\ln{(x_i)},\,\!</math>
 
aleshores ''k'' és aproximadament
 
:<math>k \approx \frac{3-s+\sqrt{(s-3)^2 + 24s}}{12s}</math>
 
que és dins d'un 1.5% del valor correcte.
 
 
=== Estimador Bayesià ===
 
Si considerem que ''k'' es conegut i <math>\theta</math> és
desconegut, la funció de densitat a posteriori per a <math>\theta</math> és
(assumint que la distribució a priori és proporcional a <math>1/\theta</math>)
 
:<math>
P(\theta | k, x_1, ..., x_N) \propto 1/\theta \prod_{i=1}^N f(x_i;k,\theta).\,\!
</math>
 
Definint
 
:<math> y \equiv \sum_{i=1}^N x_i , \qquad P(\theta | k, x_1, \dots , x_N) = C(x_i) \theta^{-N k-1} e^{-y / \theta}. \! </math>
 
Per tal de calcular l'esperança cal calcular la integral respecte &theta,
el qual pot dur-se a terme emprant un canvi de variables que
revela que 1/&theta segueix una distribució gamma amb paràmetres
<math>\scriptstyle \alpha = N k,\ \ \beta = y</math>.
 
:<math>
\int_0^{\infty} \theta^{-N k-1+m} e^{-y / \theta}\, d\theta = \int_0^{\infty} x^{N k -1 -m} e^{-x y} \, dx = y^{-(N k -m)} \Gamma(N k -m). \!
</math>
 
Els moments podem calcular-se especificant diferents valors per a ''m'' a
la següent expressió
 
 
:<math>
E(x^m) = \frac {\Gamma (N k -m)} {\Gamma(N k)} y^m, \!
</math>
 
Per exemple, l'esperança +/- la desviació estàndard de la distribució
a posteriori de <math>\theta</math> és:
 
:<math> \frac {y} {N k -1}</math> +/- <math>\frac {y^2} {(N k-1)^2 (N k-2)}. </math>
 
 
També és possible obtenir estimadors Bayesians sense assumir que ''k''
és conegut, però en general no és possible obtenir-ne una expressió senzilla.
 
 
 
== Referències ==
 
* {{MathWorld|urlname=GammaDistribution|title=Gamma distribution}}
* S. C. Choi and R. Wette. (1969) ''Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias'', '''Technometrics''', '''11'''(4) 683-69
 
 
32

modificacions