Gaussian Process
19 Oct 2017 | ml bayesian inferenceSupervised learning 타입
Supervised learning을 두 가지 타입으로 나눠볼 수 있다.
- 고려할 함수들의 class를 제한하는 방법(예> linear function with some degree)
- 함수의 richness를 잘 살려야 함
- 너무 rich하게 잡으면 overfitting
- 너무 작게 잡아버리면 poor prediction.
- 함수의 richness를 잘 살려야 함
- 모든 가능한 함수의 prior probability를 주는 방법
- 이 쪽이 Gaussian process
Bayesian linear model
아주 쉬운 예제로 Linear model이 다음처럼 있다고 가정하자.
where $\epsilon \sim N(0, \sigma_n^2)$
- w의 prior distribution을 가정(Bayesian…)
- $\textbf{w} \sim N(\textbf{0}, \Sigma_p)$
- likelihood
- $p(\textbf{y}\vert \textbf{X}, \textbf{w}) = N(\textbf{X}^T\textbf{w}, \sigma_n^2I)$
- posterior
- $p(\textbf{w}\vert \textbf{X},\textbf{y}) \sim N(\frac{1}{\sigma_n^2}A^{-1}\textbf{X}\textbf{y},\ A^{-1})$
- $A=\sigma_n^{-2}XX^T+\Sigma_p^{-1}$
- prediction
Observation에 의해서 posterior를 구할 수 있었으며, 위의 prediction 식을 사용하여 새로운 y값을 구할 수 있다. 이제 linear model이 아닌 kernel trick을 쓰면 Gaussian process!