读书_机器学习

教材《机器学习》

第二章:findsSG

SG集合方法:S正例敏感扩展。G反例敏感,分裂,包容S,
无偏的学习器,无偏学习的无用性。

第三章:决策树

属性离散,目标离散,可析取,可缺维
ID3:熵,信息增益。停止:所有属性都被这条路径包括,节点关联样本具有相同属性
ID3归纳偏置:短树优于长树,增益高属性靠近根节点
实际问题:属性筛选标准,深度,连续属性 ,属性不完整,不同代价属性
早停止生长,后修剪
修剪:错误率降低修剪。规则后修剪
信息增益率

第四章,人工神经网络

感知器训练法则,梯度下降(LMS,随机梯度下降)
完整的神经网络讲解:http://wenku.baidu.com/view/2d0990b4b14e852459fb5739.html
含有实例:http://www.doc88.com/p-9465206177651.html
神经网络简单理解图:http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html
神经网络详细理解图:http://www.cnblogs.com/charlotte77/p/5629865.html
简介[Machine Learning & Algorithm] 神经网络基础-poll的笔记:http://www.cnblogs.com/maybe2030/p/5597716.html
偏导数原理讲解:http://colah.github.io/posts/2015-08-Backprop/

第五章:

置信区间,偏差,方差,标准差

第六章:贝叶斯学习

贝叶斯网络:http://blog.sina.com.cn/s/blog_67b077fe01017e3h.html
贝叶斯网络简例:http://www.cnblogs.com/leoo2sk/archive/2010/09/18/bayes-network.html
贝叶斯网络杂例:http://blog.csdn.net/memory513773348/article/details/16973807
朴素贝叶斯:
没看懂:感觉根据含义,可以直接写出P(Y=ck)P(Y=ck)和P(X(j)=x(j)|Y=ck)的取值。用极大似然的原理思路是什么?
朴素贝叶斯方法,需要估计先验分布P(Y=ck)与条件分布P(X(j)=x(j)|Y=ck)。可以用极大似然估计方法进行概率的估计。
朴素贝叶斯参数最大似然估计:http://blog.csdn.net/zhulf0804/article/details/52474339
知乎:
http://www.zhihu.com/question/33959624

第七章:计算学习理论

第八章:基于实例的学习

k近邻,距离加权k近邻,局部加权回归(局部加权线性回归),径向基函数

第九章

遗传算法实例(函数最大值):http://blog.csdn.net/b2b160/article/details/4680853/
跳袋鼠实例:https://my.oschina.net/u/1412321/blog/192454
模拟退火,粒子群算法:http://blog.csdn.net/u011089523/article/details/50961442w
蚁群算法,
禁忌算法四城市TSP:
http://blog.csdn.net/chinajane163/article/details/49095085

第十章:学习规则集合(跳)

第十一章:分析学习(跳)

第十二章:归纳和分析学习的结合(跳)

第十三章:增强学习

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×