AI之旅(3):升维与最小二乘法】的更多相关文章

前置知识   矩阵的逆 知识地图   首先我们将了解一种叫升维的方法,用已有特征构造更多的特征.接着通过对空间与投影建立一定的概念后,推导出最小二乘法. 当特征数量不足时   在上一篇<初识线性回归>中,我们假设要处理的问题有足够的样本数量和足够的特征数量.记得样本数量是用m表示,特征数量是用n表示.假如只有1个特征该如何构建模型呢?   假设现在有一个数据集,数据集中只包含一个地区房屋的面积信息和销售情况.即只有面积这一个特征,如何只用一个特征来预测房屋的销售情况呢?   可视化能帮助我们更…
前置知识   矩阵.求导 知识地图   学习一个新事物之前,先问两个问题,我在哪里?我要去哪里?这两个问题可以避免我们迷失在知识的海洋里,所以在开始之前先看看地图.   此前我们已经为了解线性回归做了一点准备工作,现在开始正式进入主题,总共需要迈过三个台阶.希望文章结束的时候,我们能轻松愉悦地摘下这颗星星. 从一个例子开始   假设我们是市场营销人员,现在有一些房屋历史销售数据,这些数据中包含了房屋的楼盘.均价.面积,以及对应的房屋销售情况.现在有一个新开楼盘,已知新开楼盘的主要信息,如何预测楼…
/* 区间dp,为什么要升维? 因为若用dp[l][r]表示消去dp[l][r]的最大的分,那么显然状态转移方程dp[l][r]=max{dp[l+1][k-1]+(len[l]+len[k])^2+len[k+1][r]} 可是这样是直接消去l和k两个快的,有一种情况是在k.r两个块之间还有个同色块,那么这种情况就考虑不到了 所以我们要考虑是否能先不直接消去l,k合并的块,而是将其保留下来,之后枚举到k,r区域的块时再一同合并进行考虑 所以再加一维来记录l,k合并后的信息 为了方便,再加一维来…
降维: 比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*5,即6个通道变成5个通道: 通过一次卷积操作,W*H*6将变为W*H*1,这样的话,使用5个1*1的卷积核,显然可以卷积出5个W*H*1,再做通道的串接操作,就实现了W*H*5. 升维: 比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*7,即6个通道变成7个通道: 通过一次卷积操作,W*H*6将变成W*H*1,这样的话,使用7个1*1的卷积核,显然可以卷积出7个W*H…
大名鼎鼎的UNet和我们经常看到的编解码器模型,他们的模型都是先将数据下采样,也称为特征提取,然后再将下采样后的特征恢复回原来的维度.这个特征提取的过程我们称为"下采样",这个恢复的过程我们称为"上采样",本文就专注于神经网络中的下采样和上采样来进行一次总结.写的不好勿怪哈. 神经网络中的降维方法 池化层 池化层(平均池化层.最大池化层),卷积  平均池化层 pytorch nn.AvgPool1d nn.AvgPool2d tensorflow tf.layers…
前置知识   无 知识地图 自学就像在海中游泳   当初为什么会想要了解机器学习呢,应该只是纯粹的好奇心吧.AI似乎无处不在,又无迹可循.为什么一个程序能在围棋的领域战胜人类,程序真的有那么聪明吗?如果掌握机器学习,就能创造属于自己的AI吗?   怀着这样的好奇心,开始了在机器学习领域的探索.学习的第一步是从<吴恩达机器学习>公开课开始的,不可否认对于一个初学者而言,这始终是最好的入门课程.   同样的知识也有不同的学法,比如一个公式摆在面前,浅一点的学法是直接把它背下来便于应用.深一点的学法…
前置知识   求导 知识地图   回想线性回归和逻辑回归,一个算法的核心其实只包含两部分:代价和梯度.对于神经网络而言,是通过前向传播求代价,反向传播求梯度.本文介绍其中第一部分. 多元分类:符号转换   神经网络是AI世界的一座名山,这座山既神秘又宏大.看过的人都说好,但是具体好在哪里,却不易用语言表述.只有一步一步耐心爬上去,登顶之后才能俯瞰风景.   毫无疑问登顶的过程不会一帆风顺,总会遇到大大小小的困难,然而一旦我们对困难有了心理准备,登顶也不再是件难事.只是看文章不易理解,一起拿出笔和…
前置知识   导数,矩阵的逆 知识地图   正则化是通过为参数支付代价的方式,降低系统复杂度的方法.牛顿方法是一种适用于逻辑回归的求解方法,相比梯度上升法具有迭代次数少,消耗资源多的特点. 过拟合与欠拟合   回顾线性回归和逻辑回归这两个算法,我们发现特征这个词汇在频繁出现.特征是从不同的角度对事物进行描述,特征数量会决定模型的复杂程度和最终的性能表现.   为了方便讨论,我们通过添加高阶多项式的方法来增加特征数量.原始数据集中只有一个特征,依次添加原始特征的2次方,3次方......直至6次方…
前置知识   求导 知识地图   神经网络算法是通过前向传播求代价,反向传播求梯度.在上一篇中介绍了神经网络的组织结构,逻辑关系和代价函数.本篇将介绍如何求代价函数的偏导数(梯度). 梯度检测   在进入主题之前,先了解一种判断代价函数的求导结果是否正确的方法,这种方法称为梯度检测.现在假设我们已经掌握了反向传播,可以计算出代价函数的偏导数.   当函数只有一个变量时,已知导数是切线的斜率,如果能求出某个点的斜率,也就求出了该点的导数.当ε足够小时(如10的-4次方),θ处的斜率可以近似表示为如…
前置知识   求导 知识地图   逻辑回归是用于分类的算法,最小的分类问题是二元分类.猫与狗,好与坏,正常与异常.掌握逻辑回归的重点,是理解S型函数在算法中所发挥的作用,以及相关推导过程. 从一个例子开始   假设我们是信贷工作人员,有一个关于客户记录的数据集.数据集中有两个特征,x1表示月收入金额,x2表示月还贷金额.y称为标签,其中y=1表示客户发生违约.   我们的目标是挖掘出数据间可能存在的规律,建立相应的模型,用于对新客户进行预测.假设一个新客户的收入金额是5.0,还贷金额是2.7,请…