类别不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况 常用的做法有三种,分别是1.欠采样, 2.过采样, 3.阈值移动 由于这几天做的project的target为正值的概率不到4%,且数据量足够大,所以我采用了欠采样: 欠采样,即去除一些反例使得正.反例数目接近,然后再进行学习,基本的算法如下: def undersampling(train, desired_apriori): # Get the indices per target value idx_0 = train[tra
转自:http://blog.sina.com.cn/s/blog_641289eb0101e2ld.html Part 2总结一下一个粗略的建模过程: 首先,弄清楚问题是什么,能不能用机器学习的思路去考虑: 是否有pattern? 是否规则不明确? 是否有数据? 如果可以用,那么考虑,问题的学习目标是什么,有多少feature,有多少数据,应该用什么error measure(Learning from data 有一节专门讲这个,客户能提供吗?如果不能,我们找一个能说服自己的,或者找一个容易
本章通过一个例子,介绍机器学习的整个流程. 2.1 使用真实数据集练手(Working with Real Data) 国外一些获取数据的网站: Popular open data repositories: UC Irvine Machine Learning Repository Kaggle datasets Amazon's AWS datasets Meta portals (they list open data repositories): http://dataportals.o
目录 I. 大师对人工智能和机器学习的看法 II. Introduction A. What is Machine Learning 什么是机器学习 B. Basic terms 基础术语 C. Inductive learning & Hypothesis space 归纳学习和假设空间 D. Inductive bias & NFL 归纳偏置和"天下没有免费的午餐定理" E. History III. 模型评估与选择 A. Overfitting & Und