Probabilitat posterior

és un tipus de probabilitat condicional que resulta de l'actualització de la probabilitat prèvia amb informació resumida per la probabilitat, mitjançant una aplicació del teorema de Bayes.

La probabilitat posterior o a posteriori és un tipus de probabilitat condicional que resulta de l'actualització de la probabilitat prèvia amb informació resumida per la probabilitat, mitjançant una aplicació del teorema de Bayes.[1] Des d'una perspectiva epistemològica, la probabilitat posterior conté tot el que cal saber sobre una proposició incerta (com ara una hipòtesi científica, o valors de paràmetres), donats els coneixements previs i un model matemàtic que descriu les observacions disponibles en un moment determinat. Després de l'arribada de nova informació, la probabilitat posterior actual pot servir com a anterior en una altra ronda d'actualització bayesiana.[2][3]

Esquema anterior, versemblança i posterior. El diagrama mostra la relació entre distribució anterior, versemblant i posterior.

En el context de l'estadística bayesiana, la distribució de probabilitat posterior normalment descriu la incertesa epistèmica sobre els paràmetres estadístics condicionada a una col·lecció de dades observades. A partir d'una distribució posterior determinada, es poden derivar diverses estimacions puntuals i d'interval, com ara el màxim a posteriori (MAP) o l'interval de densitat posterior més alt (HPDI). Però tot i que conceptualment és senzilla, la distribució posterior generalment no és tractable i, per tant, s'ha d'aproximar analíticament o numèricament.[4]

En els mètodes bayesians variacionals, la probabilitat posterior és la probabilitat dels paràmetres donada l'evidència , i es denota .

Contrasta amb la funció de versemblança, que és la probabilitat de l'evidència donat els paràmetres: .

Els dos estan relacionats de la següent manera:

Donada una probabilitat prèvia que una funció de distribució de probabilitat és i que les observacions tenir una probabilitat , aleshores la probabilitat posterior es defineix com [5]

on és la constant normalitzadora i es calcula com

per contínua , o sumant sobre tots els valors possibles de per discrets .[6]

La probabilitat posterior és, per tant, proporcional al producte Veriblitat · Probabilitat prèvia.[7]

Referències modifica

  1. Lambert, Ben. «The posterior – the goal of Bayesian inference». A: A Student's Guide to Bayesian Statistics. Sage, 2018, p. 121–140. ISBN 978-1-4739-1636-4. 
  2. Team, Wallstreetmojo Editorial. «Posterior Probability» (en anglès). https://www.wallstreetmojo.com,+31-03-2022.+[Consulta: 30 octubre 2022].
  3. Zach. «Posterior Probability: Definition + Example» (en anglès). https://www.statology.org,+19-02-2020.+[Consulta: 30 octubre 2022].
  4. Press, S. James. «Approximations, Numerical Methods, and Computer Programs». A: Bayesian Statistics : Principles, Models, and Applications (en anglès). New York: John Wiley & Sons, 1989, p. 69–102. ISBN 0-471-63729-7. 
  5. Christopher M. Bishop. Pattern Recognition and Machine Learning (en anglès). Springer, 2006, p. 21–24. ISBN 978-0-387-31073-2. 
  6. Andrew Gelman, John B. Carlin, Hal S. Stern, David B. Dunson, Aki Vehtari and Donald B. Rubin. Bayesian Data Analysis (en anglès). CRC Press, 2014, p. 7. ISBN 978-1-4398-4095-5. 
  7. Ross, Kevin. Chapter 8 Introduction to Continuous Prior and Posterior Distributions | An Introduction to Bayesian Reasoning and Methods (en anglès). https://bookdown.org.