[[2021-09-19-Deterministic_Probabilistic]]
Introduction
Autoregressive 和 variational autoencoder 都各有優缺點。 Flow model 的 key 是 reciprocal! 如此可以容易得到 posterior distribution!
![[Pasted image 20250306152839.png]]
![[Pasted image 20250307145909.png]]
![[Pasted image 20250307153501.png]] ![[Pasted image 20250307145810.png]]
How to Reciprocal! Easy, make the neural network deterministic!!!!
為什麼?因為 deterministic function 的反函數只是一個值 (或是幾個值,不過我們會限制 domain 在 1-1 mapping!) 很容易 reciprocal (特別是用 neural network fit)
但是 conditional $p(x\vert z)$ 的“反函數” 或是 posterior $p(z \vert x)$ 卻是要 evaluate 所有的 $z$ by Bayesian $p(z\vert x) = p(x \vert z) p(z) p(x)^{-1}$ 因為皆有可能。
缺點是 $z$ 和 $x$ 有相同的 dimensionality!!
![[Pasted image 20250306160402.png]]
Reference
Ermon youtube cs236: https://www.youtube.com/watch?v=m6dKKRsZwBQ&list=PLoROMvodv4rPOWA-omMM6STXaWW4FvJT8&index=7&ab_channel=StanfordOnline