目录 1.前述: 2.Bosting方式介绍: 3.Adaboost例子: 4.adaboost整体流程: 5.待解决问题: 6.解决第一个问题:如何获得不同的g(x): 6.1 我们看下权重与函数的关系: 6.2 gt和un的关系数学公式表达: 6.3 引导Un+1的思路: 6.4 推导Un+1的由来: 6.5 规划因子的由来: 7.解决第二个问题:α的计算: 7.1 每一个弱分类器需要什么样的树: 8.具体总结Adaboost的整体流程: 9.举例说明Adaboost的流程: 10.总结Ad…
目录 1.回顾: 1.1 有监督学习中的相关概念 1.2  回归树概念 1.3 树的优点 2.怎么训练模型: 2.1 案例引入 2.2 XGBoost目标函数求解 3.XGBoost中正则项的显式表达 4.如何生长一棵新的树? 5.xgboost相比原始GBDT的优化: 6.代码参数: 1.回顾: 我们先回顾下有监督学习中的一些核心概念: 1.1 有监督学习中的相关概念 我们模型关注的就是如何在给定xi的情况下获得ŷi.在线性模型里面,我们认为 i是x的横坐标,j是x的列坐标,本质上linear…
目录 1.前述 2.向量空间的梯度下降: 3.函数空间的梯度下降: 4.梯度下降的流程: 5.在向量空间的梯度下降和在函数空间的梯度下降有什么区别呢? 6.我们看下GBDT的流程图解: 7.我们看一个GBDT的例子: 8.我们看下GBDT不同版本的理解: 1.前述 从本课时开始,我们讲解一个新的集成学习算法,GBDT. 首先我们回顾下有监督学习.假定有N个训练样本,, 找到一个函数 F(x),对应一种映射使得损失函数最小.即: 如何保证最小呢?就是通过我们解函数最优化的算法去使得最小,常见的有梯…
                                                    大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5) 上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决. 先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来.但我们知道逻辑回归本质上是区分二分类的算法模型.难道没有解决办法了吗?办法还是有的,既然想分出3类,我们姑且称这3个类…
目录 1.Tensorflow框架简介 2.安装Tensorflow 3.核心概念 4.代码实例和详细解释 5.拓扑图之有向无环图DAG 6.其他深度学习框架详细描述 6.1 Caffe框架: 6.2 Theano框架: 6.3 Keras框架: 1.Tensorflow框架简介 Tensorflow由Google Brain谷歌大脑开源出来的,在2015年11月在GitHub上开源,2016年是正式版,2017年出了1.0版本,趋于稳定.谷歌希望让优秀的工具得到更多的去使用,所以它开源了,从整…
第四节  最大似然推导mse损失函数(深度解析最小二乘来源)(2) 上一节我们说了极大似然的思想以及似然函数的意义,了解了要使模型最好的参数值就要使似然函数最大,同时损失函数(最小二乘)最小,留下了一个问题,就是这两个因素或者目的矛盾吗?今天我们就接着上面的问题继续解剖下去. 我们再来回顾下似然函数: 所谓似然函数就是一个大的乘项,它有多少项,取决于有多少个训练集的样本,因为它是判断训练集上发生的总概率最大的这么一个总似然函数.我们分析一下似然函数的取值由哪些因素确定?是常数,虽然是未知数,但是…
本节的话我们开始讲解sklearn里面的实战: 先看下代码: from sklearn.neural_network import MLPClassifier X = [[0, 0], [1, 1]] y = [0, 1] clf = MLPClassifier(solver='sgd', alpha=1e-5, activation='logistic', hidden_layer_sizes=(5, 2), max_iter=2000, tol=1e-4) clf.fit(X, y) pre…
          大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out  of  bag  data及代码(2) 上一节中我们讲解了随机森林的基本概念,本节的话我们讲解随机森林的随机方式,以及一些代码. 目录 1-随机森林随机方式 2-out  of   baf data 3-代码 1-随机森林随机方式 我们先来回顾下随机森林中都有哪些随机?     第一:用Bagging生成用来训练小树的样本时,进行有放回的随机抽样.                 第二:抽样数据之…
                                                                           第十四节过拟合解决手段L1和L2正则 第十三节中,我们讲解了过拟合的情形,也就是过度的去拟合训练集上的结果了,反倒让你的模型太复杂.为了去解决这种现象,我们提出用L1,L2正则去解决这种问题. 怎么把正则应用进去?我们重新审视目标函数,以前我们可以理解目标函数和损失函数是一个东西.而有正则的含义之后,目标函数就不再是损失函数了,而是损失函数加惩罚项…
                                                第三节最大似然推导mse损失函数(深度解析最小二乘来源)        在第二节中,我们介绍了高斯分布的来源,以及其概率密度函数对应的参数的解释.本节的话,我们结合高斯分布从数学原理部分解释为什么损失函数是最小二乘.我们再来回归下高斯分布的概率密度函数实际上是这个形式的:                                                                 …