第19月第8天 斯坦福大学公开课机器学习 (吴恩达 Andrew Ng)
1.斯坦福大学公开课机器学习 (吴恩达 Andrew Ng)
http://open.163.com/special/opencourse/machinelearning.html
笔记
http://cs229.stanford.edu/syllabus.html
http://www.cnblogs.com/jerrylead/default.html?page=3
http://www.cnblogs.com/madrabbit/
https://blog.csdn.net/xiahouzuoxin
https://blog.csdn.net/u010249583
https://blog.csdn.net/stdcoutzyx/article/details/17741475
https://blog.csdn.net/stdcoutzyx/article/details/53869661
https://blog.csdn.net/app_12062011/article/details/50577717
https://blog.csdn.net/antkillerfarm/article/details/52980075
https://www.cnblogs.com/llhthinker/p/5351201.html
https://blog.csdn.net/dingchenxixi/article/details/51479003
随着模型的复杂度增加,虽然偏差会不断减小,但方差先减小后增大,模型的泛化误差也是先减小后增大,因此需要在“欠拟合”和“过拟合”之间寻找合适的模型复杂度。衡量模型的复杂度通常有AIC准则(AkalikeInformation Criterion)、BIC准则(BayesianInformation Criterion)等方法。
https://blog.csdn.net/baidu_35231778/article/details/52221400
2.数学之美
http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/
3.svm
http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html
http://www.10tiao.com/html/520/201711/2650725003/3.html
https://blog.csdn.net/v_july_v/article/details/7624837
https://blog.csdn.net/lch614730/article/details/17067027
https://www.jianshu.com/u/511ba5d71aef
http://www.cnblogs.com/vipyoumay/p/7560061.html
4.k-means
http://blog.pluskid.org/?p=17
http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006910.html
5.em
https://zhuanlan.zhihu.com/p/24655368
https://blog.csdn.net/zhihua_oba/article/details/73776553
https://www.cnblogs.com/fxjwind/p/3896113.html
https://www.cnblogs.com/xuesong/p/4179459.html
https://www.cnblogs.com/yymn/p/4769736.html
6.pca
https://blog.csdn.net/mmc2015/article/details/42459753
https://blog.csdn.net/chlele0105/article/details/13004499
https://blog.csdn.net/zhangdadadawei/article/details/50929574
https://blog.csdn.net/mmc2015/article/details/42459753
7.svd
https://blog.csdn.net/zhongkejingwang/article/details/43083603
https://blog.csdn.net/xmu_jupiter
http://www.infoq.com/cn/articles/matrix-decomposition-of-recommend-system
https://blog.csdn.net/syani/article/details/52297093
https://blog.csdn.net/american199062/article/details/51344067
8.PRML
https://baijiahao.baidu.com/s?id=1585194960281334902&wfr=spider&for=pc
https://github.com//ctgk/PRML
9.
#--------------------------------
机器学习&深度学习视频资料汇总
https://www.cnblogs.com/baihuaxiu/p/6725223.html
- BAT机器学习面试1000题系列每日刷
- 从最大似然到EM算法浅解2018.3.7
- 机器学习中的PR曲线和ROC曲线2018.3.23
- VotingClassifier 模型聚合——投票 2018.3.25
- 非平衡数据机器学习 2018.3.25
- 机器学习:概率校准 2018.3.25
- 机器学习中的损失函数 (着重比较:hinge loss vs softmax loss 2018.3.25
- 机器学习常用的分类器比较 2018.3.25
- 线性判别分析(Linear Discriminant Analysis) 2018.3.26
- 机器学习常用 35 大算法盘点(附思维导图)2018.3.26
- 机器学习的分类与主要算法对比 2018.3.26
- logistic函数和softmax函数 2018.3.27
- Logistic Regression(逻辑回归)原理及公式推导 2018.3.27
- 机器学习算法—随机森林实现(包括回归和分类)2018.4.7
http://ykksmile.top/posts/55073/
这位成功转型机器学习的老炮,想把他多年的经验分享给你
https://blog.csdn.net/wemedia/details.html?id=38193
https://www.jianshu.com/u/12201cdd5d7a
code
https://github.com/lzhe72/MachineLearning/
第19月第8天 斯坦福大学公开课机器学习 (吴恩达 Andrew Ng)的更多相关文章
- 斯坦福大学公开课机器学习:advice for applying machine learning | diagnosing bias vs. variance(机器学习:诊断偏差和方差问题)
当我们运行一个学习算法时,如果这个算法的表现不理想,那么有两种原因导致:要么偏差比较大.要么方差比较大.换句话说,要么是欠拟合.要么是过拟合.那么这两种情况,哪个和偏差有关.哪个和方差有关,或者是不是 ...
- 斯坦福大学公开课机器学习: machine learning system design | error analysis(误差分析:检验算法是否有高偏差和高方差)
误差分析可以更系统地做出决定.如果你准备研究机器学习的东西或者构造机器学习应用程序,最好的实践方法不是建立一个非常复杂的系统.拥有多么复杂的变量,而是构建一个简单的算法.这样你可以很快地实现它.研究机 ...
- 斯坦福大学公开课机器学习:advice for applying machine learning - deciding what to try next(设计机器学习系统时,怎样确定最适合、最正确的方法)
假如我们在开发一个机器学习系统,想试着改进一个机器学习系统的性能,我们应该如何决定接下来应该选择哪条道路? 为了解释这一问题,以预测房价的学习例子.假如我们已经得到学习参数以后,要将我们的假设函数放到 ...
- 斯坦福大学公开课机器学习:machine learning system design | data for machine learning(数据量很大时,学习算法表现比较好的原理)
下图为四种不同算法应用在不同大小数据量时的表现,可以看出,随着数据量的增大,算法的表现趋于接近.即不管多么糟糕的算法,数据量非常大的时候,算法表现也可以很好. 数据量很大时,学习算法表现比较好的原理: ...
- 斯坦福大学公开课机器学习:machine learning system design | trading off precision and recall(F score公式的提出:学习算法中如何平衡(取舍)查准率和召回率的数值)
一般来说,召回率和查准率的关系如下:1.如果需要很高的置信度的话,查准率会很高,相应的召回率很低:2.如果需要避免假阴性的话,召回率会很高,查准率会很低.下图右边显示的是召回率和查准率在一个学习算法中 ...
- 斯坦福大学公开课机器学习:machine learning system design | error metrics for skewed classes(偏斜类问题的定义以及针对偏斜类问题的评估度量值:查准率(precision)和召回率(recall))
上篇文章提到了误差分析以及设定误差度量值的重要性.那就是设定某个实数来评估学习算法并衡量它的表现.有了算法的评估和误差度量值,有一件重要的事情要注意,就是使用一个合适的误差度量值,有时会对学习算法造成 ...
- 斯坦福大学公开课机器学习: machine learning system design | prioritizing what to work on : spam classification example(设计复杂机器学习系统的主要问题及构建复杂的机器学习系统的建议)
当我们在进行机器学习时着重要考虑什么问题.以垃圾邮件分类为例子.假如你想建立一个垃圾邮件分类器,看这些垃圾邮件与非垃圾邮件的例子.左边这封邮件想向你推销东西.注意这封垃圾邮件有意的拼错一些单词,就像M ...
- 斯坦福大学公开课机器学习: advice for applying machine learning | deciding what to try next(revisited)(针对高偏差、高方差问题的解决方法以及隐藏层数的选择)
针对高偏差.高方差问题的解决方法: 1.解决高方差问题的方案:增大训练样本量.缩小特征量.增大lambda值 2.解决高偏差问题的方案:增大特征量.增加多项式特征(比如x1*x2,x1的平方等等).减 ...
- 斯坦福大学公开课机器学习:advice for applying machine learning | learning curves (改进学习算法:高偏差和高方差与学习曲线的关系)
绘制学习曲线非常有用,比如你想检查你的学习算法,运行是否正常.或者你希望改进算法的表现或效果.那么学习曲线就是一种很好的工具.学习曲线可以判断某一个学习算法,是偏差.方差问题,或是二者皆有. 为了绘制 ...
随机推荐
- 使用pygal_maps_world展示世界地图
pygal.i18n在2.0版本以后改为pygal_maps_world.i18n获取国家码和国家名对应关系下载安装包:pygal_maps_world-1.0.2.tar.gz解压后命令行安装: p ...
- linux python3 selenuim firefox
1.官网下载火狐浏览器最新版本复制到/usr/local/softwar 下 cd /usr/local/softwar 下 tar jxvf Firefox-latest-x86_64.tar.bz ...
- codeforces166E
Tetrahedron CodeForces - 166E You are given a tetrahedron. Let's mark its vertices with letters A, B ...
- codeforces580C
Kefa and Park CodeForces - 580C 一棵以1为根的树,树上有些点是红的.一个叶子是合法的当且仅当从根到它的路径上出现的连续红点个数不超过m.求有多少个叶子是合法的.Inpu ...
- BZOJ4010[HNOI2015]菜肴制作——拓扑排序+堆
题目描述 知名美食家小 A被邀请至ATM 大酒店,为其品评菜肴. ATM 酒店为小 A 准备了 N 道菜肴,酒店按照为菜肴预估的质量从高到低给予 1到N的顺序编号,预估质量最高的菜肴编号为1.由于菜肴 ...
- spoj COT - Count on a tree (树上第K小 LCA+主席树)
链接: https://www.spoj.com/problems/COT/en/ 思路: 首先看到求两点之前的第k小很容易想到用主席树去写,但是主席树处理的是线性结构,而这道题要求的是树形结构,我们 ...
- poj1195
Suppose that the fourth generation mobile phone base stations in the Tampere area operate as follows ...
- day11 匿名函数
格式 lambda 形参 :逻辑运算方式 lambda x:x+1 普通的方式计算 卧槽.这么长! def calc(x): return x+1 res = calc(10) print(res) ...
- Mercurial(Hg)基本操作
Mercurial(Hg)基本操作 来源 https://www.cnblogs.com/gb2013/archive/2012/05/18/Mercurial_Basic.html Mercuria ...
- MT【26】ln(1+x)的对数平均放缩
评:1.某种程度上$ln(1+x)\ge \frac{2x}{2+x}$是最佳放缩. 2.这里涉及到分母为幂函数型的放缩技巧,但是不够强,做不了这题.