확률변수(Random variable)의 L2 convergence (L2 수렴)에 대해 알아보자
확률변수의 수렴 중 L2 convergence (L2 수렴)에 대해 알아보겠습니다. 극한의 수렴얘기할 여러 얘기를 할 수 있지만 Random variable 에 대해서는 제곱의 평균을 이용해서 수렴을 정의하곤 합니다. 굉장히 쉬운 개념이니까 한번 따라 가 볼게요.
Random variable 의 L2 convergence
X_n , n=1,2,... 를 확률변수로 구성된 sequence라고 합시다. 그러면 아래를 만족하는 확률변수 X 가 존재할 때 X_n , n=1,2,... 가 X 로 L2 convergence (L2 수렴) 한다고 말합니다.
\lim_{n\to \infty} E\left[ ( X_n - X)^2 \right] = 0그러면 이것을 왜 L2 라고 말할까요? 확률변수의 power를 이용해서 확률변수의 길이 L2 norm 을 정의하기 때문이죠.
\lVert X \rVert_2 = \sqrt{E[X^2]} \text{ ($X$ 의 L2 norm) }
그리고 확률변수 X,Y사이의 거리를 L2 norm 을 이용해서 정의하죠.
\lim_{n\to \infty} E\left[ ( X_n - X)^2 \right] = 0 라는 얘기는 L2 norm 을 이용해 정의한 distance가 0에 가까워 진다는 의미이기 때문에 L2 convergence 라고 불리웁니다.