概率,贝叶斯,熵,条件熵。互信息I(X,Y)=H(Y)-H(Y|X)
,两个变量之间的依赖度。
今天接触了一个新的概念:学习的本质是压缩。化为经典就是大道至简
。
machine learning
- 本文链接: http://chillyc.info/2012/2012-02-06-machine-learning/
- 版权声明: 本博客所有文章除特别声明外,只能复制超链接地址,且必须注明出处!
概率,贝叶斯,熵,条件熵。互信息I(X,Y)=H(Y)-H(Y|X)
,两个变量之间的依赖度。
今天接触了一个新的概念:学习的本质是压缩。化为经典就是大道至简
。