Hi ha dues parametritzacions diferents de la distribució gamma. La primera[2] utilitza un paràmetre d'escala i un paràmetre de forma, i és àmpliament utilitzada tant en Estadística com en Probabilitats; a més, és la més habitual en el programari estadístic.[3] La funció de densitat és
on és la funció gamma. Si és una variable aleatòria amb aquesta distribució, s'escriu o .
La segona parametrització utilitza un paràmetre d'escala inversa, que també s'anomena paràmetre de taxa (rate parameter), , , i el paràmetre de forma . Aquesta parametrització també s'utilitza molt, per exemple en teoria de la probabilitat [4] o en Estadística bayesiana.[5] La funció de densitat, amb aquesta parametrització és
En aquest article utilitzarem la primera parametrització.
La distribució gamma té moments de tots els ordres. Si , aleshores per a ,
En particular,
d'on
Prova
Calcularem els moments pel cas de la distribució gamma estàndard, és dir, amb , dels quals es dedueixen els del cas general per la propietat d'escala. Reduirem la integral que intervé el càlcul dels moments a la funció gamma: Concretament, si , llavors on a la darrera igualtat igualtat hem utilitzat l'equació funcional de la funció gamma .
Per a , per la propietat d'escala, amb les notacions anteriors, tenim que
Funció generatriu de moments i funció característica
Si i independents, aleshores ; és diu que la distribució és reproductiva[7] respecte el paràmetre . Aquesta propietat es demostra utilitzant les funcions característiques (o les funcions generatrius de moments) de i .
Més generalment, si són independents, , aleshores .
La distribució gamma és infinitament divisible (o infinitament descomposable),[8] això és, sigui , aleshores per a qualsevol enter , existeixen (en algun espai de probabilitat) variables aleatòries independents i idènticament distribuïdes tals que on indica la igualtat en distribució o llei. Aquí cal prendre .
La representació de Lévy-Khintchine[9] de la funció característica és
Per tant, la mesura de Lévy té densitat
i la part gaussiana i la deriva (drift) són zero (vegeu Sato [10] per a les definicions d'aquests termes).
Aproximació de la distribució gamma per la distribució normal
En aquest apartat suposarem que el paràmetre és un nombre natural. Sigui , aleshores, com conseqüència del teorema central de límit, (Vegeu les notacions a convergència de variables aleatòries.) En altres paraules, per a gran, és aproximadament normal .
Prova
Sigui una successió de variables aleatòries independents totes amb llei (és dir, amb distribució exponencial de paràmetre 1). Tenim que i . Llavors, pel teorema central del límit, Però per la propietat reproductiva, .
Però aquesta aproximació a la distribució normal és molt lenta i el següent resultat dona una aproximació més ràpida: Sigui . Aleshores És a dir, per a gran, és aproximadament normal .[11]
Prova
Considerem la variable aleatòria Per la fórmula de canvi de variables, la funció de densitat de és Llavors es comprova que que és la funció de densitat d'una distribució normal . De les propietats de la convergència en distribució es dedueix que convergeix en distribució a una distribució . Vegeu [11] pels detalls.
Quan , la funció de densitat de la distribució té un únic màxim al punt ; és diu que aquest valor és la moda de la distribució i que la distribució és unimodal. El valor del màxim és , que per la fórmula de Stirling, per a valors grans de es pot aproximar per .[12]
Quan , aleshores la densitat no està afitada, ja que, en aquest cas,
La funció de versemblança per a N observacions
iid és
de la qual podem calcular la log-versemblança
L'estimador màxim-versemblant s'obté maximitzant la log-versemblança,
és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar
que la funció és convexa i que per tant té un sol extrem).
Procedint d'aquesta manera trobem que:
Substituint aquest resultat a l'expressió de la log-versemblança dona
Per trobar el màxim respecte de k cal calcular la derivada i
igualar-la a zero, amb què s'obté:
on
és la funció digamma.
No existeix cap fórmula tancada per a k, però la funció es comporta bé
numèricament (és convex), i per tant és senzill trobar-ne una solució numèrica,
per exemple amb el mètode de Newton.
És possible trobar un valor inicial per a k
emprant el mètode dels moments,
o emprant l'aproximació
Si considerem que k és conegut i és
desconegut, la funció de densitat a posteriori per a és
(assumint que la distribució a priori és proporcional a )
Definint
Per tal de calcular l'esperança cal calcular la integral respecte &theta,
el qual pot dur-se a terme emprant un canvi de variables que
revela que 1/&theta segueix una distribució gamma amb paràmetres
.
Els moments podem calcular-se especificant diferents valors per a m a
la següent expressió
Per exemple, l'esperança +/- la desviació estàndard de la distribució
a posteriori de és:
+/-
També és possible obtenir estimadors Bayesians sense assumir que k
és conegut, però en general no és possible obtenir-ne una expressió senzilla.
Tenint en compte la propietat d'escala esmentada anteriorment,
és suficient generar una variable gamma amb β = 1
i després transformar-la a qualsevol altre valor de β
amb una simple divisió.
Emprant el fet que una distribució Γ(1, 1) és el mateix que una distribució exponencial Exp(1), i tenint en compte el mètode per generar variables aleatòries exponencials,
arribem a la conclusió que si U prové d'una distribució uniforme en (0, 1],
aleshores -ln(U) segueix una Γ(1, 1).
Emprant la propietat de què la suma de variables aleatòries gamma independents
segueix novament una distribució gamma, extenem el resultat:
on Uk són uniformement distribuïdesen (0, 1] i independents.
Tanmateix aquesta estratègia només funciona si n és un nombre sencer.
Ara veurem com generar observacions d'una Γ(δ, 1) per a 0 < δ < 1,
ja que després podem aplicar la propietat de la suma per al cas 1 < &delta.
A continuació presenten un algoritme, sense demostració. Es tracta d'un cas particular del mètode d'acceptació-rebuig:
Sigui m= 1.
Generar i — independents i uniformement distribuïdes a (0, 1].
Si , on , aleshores anar a 4, altrament anar a 5.
Sigui . Anar a 6.
Sigui .
Si , aleshores incrementar m i tornar a 2.
Assumim que és l'observació d'una
Per resumir,
on
[k] és la part sencera de k, i ξ ha estat generat emprant l'algoritme que hem presentat δ = {k} (la part fraccional de k),
Uk i Vl segueixen la distribució explicada anteriorment i són independents.
La Llibreria científica GNU disposa de
rutines robustes per a generar observacions de moltes distribucions,
incloent la distribució Gamma.
Si , aleshores X és idènticament distribuïda a una χ²(ν), la distribució khi-quadrat amb ν graus de llibertat.
Si és un nombre sencer, la distribució gamma es denomina distribució d'Erlang que serveix per a modelar el temps d'arribada fins a la -ena "arribada" en un procés de Poisson d'una dimensió amb intensitat 1/θ.
Si X segueix una Γ(k, θ) aleshores 1/X segueix una distribució gamma inversa amb paràmetres k i θ-1.
Si X i Y són Γ(α, θ) i Γ(β, θ) independents, respectivament, aleshores X / (X + Y) segueix una distribució beta amb paràmetres α i β.
Si Xi són Γ(αi,θ) independents, aleshores el vector (X1 / S, ..., Xn / S), on S = X1 + ... + Xn, segueix una distribució de Dirichlet amb paràmetres α1, ..., αn.
Johnson et al.[6] introdueixen la distribució gamma amb tres paràmetres: a més dels paràmetres de forma i escala , consideren un paràmetre de posició ; la distribució ve definida per la funció de densitat
Choi, S. C: and R. Wette, R. (1969) Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias, Technometrics, 11(4) 683-69