Posts for: #機械学習

KL divergenceに与える分布を入れ替えることの意味をまじめに考えたことあります?

KL divergenceに与える分布を入れ替えることの意味をまじめに考えたことあります?

本記事はQrunchからの転載です。


みんながよく使うKL(Kullback–Leibler) divergenceの話題です。 KL divergenceといえば2つの確率分布の違いを計算できるやつですね。 KL divergenceは対称性というものがなく、与えられた2つの分布を入れ替えるとKL divergenceの値が変わります。 今回は、この入れ替えたときの影響を最小化問題を例としてまじめに考えます。