KL距离与JS散度

KL距离与JS散度

KL距离,即Kullback-Leibler Divergence,也被成为信息熵(Relative Entropy)。一般KL距离用来衡量同意事件中,两种概率分布的相似程度,这个值越小,则相似程度越高。 计算的实例: 我们抛两枚硬
JavaScript120