Model generatiu basat en fluxos

model generatiu utilitzat en l'aprenentatge automàtic

Un model generatiu basat en flux és un model generatiu utilitzat en l'aprenentatge automàtic que modela explícitament una distribució de probabilitat aprofitant el flux normalitzador, [1][2] que és un mètode estadístic que utilitza la llei de probabilitats de canvi de variable per transformar un distribució en un de complex.

La modelització directa de la probabilitat ofereix molts avantatges. Per exemple, la probabilitat logarítmica negativa es pot calcular directament i minimitzar com a funció de pèrdua. A més, es poden generar mostres noves mitjançant el mostreig de la distribució inicial i l'aplicació de la transformació del flux.

En canvi, molts mètodes alternatius de modelització generativa, com ara el codificador automàtic variacional (VAE) i la xarxa adversària generativa, no representen explícitament la funció de probabilitat.[3]

Esquema de normalització de cabals

Mètode modifica

Deixar   ser una variable aleatòria (possiblement multivariant) amb distribució  .

Per  , deixar   ser una seqüència de variables aleatòries transformades de  . Les funcions   hauria de ser inversible, és a dir, la funció inversa   existeix. La sortida final   modela la distribució objectiu.

La probabilitat de registre de   és (vegeu la derivació):

 

Per calcular de manera eficient la probabilitat de registre, les funcions   hauria de ser 1. fàcil d'invertir, i 2. fàcil de calcular el determinant del seu jacobià. A la pràctica, les funcions   es modelen mitjançant xarxes neuronals profundes i s'entrenen per minimitzar la probabilitat de registre negatiu de les mostres de dades de la distribució objectiu. Aquestes arquitectures solen estar dissenyades de manera que només es requereix el pas endavant de la xarxa neuronal tant en els càlculs inversos com en els determinants jacobians. Alguns exemples d'aquestes arquitectures inclouen NICE, RealNVP, i Glow.[4]

Derivació de la probabilitat de registre modifica

Considereu   i  . Tingues en compte que  .

Pel canvi de fórmula variable, la distribució de   és:

 

On   és el determinant de la matriu jacobiana de  .

Segons el teorema de la funció inversa:

 

Per la identitat   (on   és una matriu invertible), tenim:

 

La probabilitat de registre és així:

 

En general, l'anterior s'aplica a qualsevol   i  . Des de   és igual a   restat per un terme no recursiu, podem inferir per inducció que:

 

Aplicacions modifica

  1. Tabak, Esteban G.; Turner, Cristina V. Communications on Pure and Applied Mathematics, 66, 2, 2012, pàg. 145–164. DOI: 10.1002/cpa.21423.
  2. Papamakarios, George; Nalisnick, Eric; Jimenez Rezende, Danilo; Mohamed, Shakir; Bakshminarayanan, Balaji Journal of Machine Learning Research, 22, 1, 2021, pàg. 2617–2680.
  3. Weng, Lilian. «Flow-based Deep Generative Models» (en anglès), 13-10-2018. [Consulta: 21 març 2024].
  4. «Normalizing Flow Models (Part 1)» (en anglès). [Consulta: 21 març 2024].