Markov Projection의 의미와 특징에 대해 알아보자.
Markov Projection이란?
\pi_0, \pi_T 를 각각 주어진 distribution이라 하자. \mathbb{Q} 를 아래의 SDE를 따르는 markov measure라 하자.
dX_t = f_t(X_t)dt+\sigma_t dB_t그리고 \Pi = \Pi_{0,T} \mathbb{Q}_{|0,T} 를 mixture of bridge라고 하자. \Pi_{0,T} = \pi_0 \otimes \pi_T 이다. 그럴 때 아래의 SDE를 따르는 markov measure를 \Pi 의 Markov projection이라 부르고 기호로는 proj_{\mathcal{M}} ( \Pi) 이라고 쓴다.
dX_t = \left[ f_t(X_t) + v_t(x_t) \right] dt + \sigma_t dB_t, v_t(x_t) = E_{\Pi_{T|t}}\left[ \nabla \log Q_{T|t} (X_T \mid X_t ) | X_t =x_t \right], X_0 \sim \Pi_0Markov Projection의 특징
Markov Projection의 특징에 대해 알아보자. 유클리디안 공간에서 projection은 거리가 가장 짧게 만드는 벡터인데 Markov Projection은 KL divergence를 가장 작게한다. M^* = proj_{\mathcal{M}}(\Pi) 이라 하자. 그러면 아래와 같은 성질을 만족한다.
첫번째로 원래의 measure와 markov measure간의 KL divergence를 가장 적게 하는 친구가 바로 projection이 된다.
M^* = argmin_M \{KL(\Pi | M) : M \in \mathcal{M} \}두번째로 KL divergence는 아래와 같이 나타낼 수 있다.
KL(\Pi | M^*) = \frac{1}{2}\int_{0}^T E_{\Pi_{0,t}}[\lVert \sigma_t^2 E_{\Pi_{T|0,t}}\left[ \nabla \log Q(X_T | X_t, X_0)] -v_t(x_t) \right] \rVert ]세번째로 가장중요한것 M^* 에 대해 M^*_t = \Pi_t 라는 것이다.
출처-https://arxiv.org/abs/2303.16852