一.序 环境搭建:[查看] samples-for-ai项目下载:[下载],两个版本,一个2018年6月15日前,一个2018年6月15日-16日版本(当前最新版本). 在环境搭建过程中,通过git clone获取到samples-for-ai文件夹,其子文件夹examples目录如下. 以Tensorflow作为样例模型. 参考博客:[博客1].[博客2]. 二.Tensorflow (一)它是什么? 简书博客:查看: TensorFlow中文社区:查看. 大概就是一款谷歌开源的人工智能系统.…
本篇博客用tensorflow训练自带的数据mnist,参考自博客. 背景: 搭建好AI环境:查看 window 7 64位 准备工作: 在搭建AI环境过程中下载的samples-for-ai不是最新版的,删除了samples-for-ai,重新下载安装了samples-for-ai,安装步骤见博客Visual Studio AI配置环境. 用tensorflow训练数据mnist步骤: 1.打开E:\AI\samples-for-ai\examples\tensorflow目录,双击Tenso…
两周多的努力总算写出了RCNN的代码,这段代码非常有意思,并且还顺带复习了几个Tensorflow应用方面的知识点,故特此总结下,带大家分享下经验.理论方面,RCNN的理论教程颇多,这里我不在做详尽说明,有兴趣的朋友可以看看这个博客以了解大概. 系统概况 RCNN的逻辑基于Alexnet模型.为增加模型的物体辨识率,在图片未经CNN处理前,先由传统算法(文中所用算法为Selective Search算法)取得大概2000左右的疑似物品框.之后,这些疑似框被导入CNN系统中以取得输出层前一层的特征…
pytorch的并行分为模型并行.数据并行 左侧模型并行:是网络太大,一张卡存不了,那么拆分,然后进行模型并行训练. 右侧数据并行:多个显卡同时采用数据训练网络的副本. 一.模型并行 二.数据并行 数据并行的操作要求我们将数据划5分成多份,然后发送给多个 GPU 进行并行的计算. 注意:多卡训练要考虑通信开销的,是个trade off的过程,不见得四块卡一定比两块卡快多少,可能是训练到四块卡的时候通信开销已经占了大头 下面是一个简单的示例.要实现数据并行,第一个方法是采用 nn.parallel…
把源代码跑起来了,将实验过程记录如下,用于新手入门. 今天和师兄师姐才跑通,来分享下心得.(预训练网络:ImageNet_model,训练集:PASCAL VOC2007, GPU) 首先,整个train and test过程不是唯一的,理解的越深才能越熟练. 下来,进入正题: 1.git clone源代码.一定要选recursive模式.(否者caffe这个包不在源代码里,编译会报错) 2.进入lib文件夹,make一下下. 3.下来在caffe的目录下,cp Makefile.config.…
画黑底白字的软件:KolourPaint. 假设所有"1"的图片放到名字为1的文件夹下.(0-9类似)..获取每个数字的名称文件后,手动表上标签.然后合成train.txt 1.获取文件夹内全部图像的名称: find ./1 -name '*.png'>1.txt //此时的1.txt文件中的图像名称包括路劲信息,要把前面的路径信息去掉. $ sudo sed -i "s/.\/1\///g" 1.txt          //(\表示转义,所以这里用双引号而…
目录 EM算法(1):K-means 算法 EM算法(2):GMM训练算法 EM算法(3):EM算法运用 EM算法(4):EM算法证明 EM算法(2):GMM训练算法 1. 简介 GMM模型全称为Gaussian Mixture Model,即高斯混合模型.其主要是针对普通的单个高斯模型提出来的.我们知道,普通高斯模型对实际数据拟合效果还不错,但是其有一个致命的缺陷,就是其为单峰函数,如果数据的真实分布为复杂的多峰分布,那么单峰高斯的拟合效果就不够好了. 与单峰高斯模型不同,GMM模型是多个高斯…
在这篇文章中,会实现一个BP(backpropagation)算法,并将之应用到手写的阿拉伯数字(0-9)的自动识别上. 训练数据集(training set)如下:一共有5000个训练实例(training instance),每个训练实例是一个400维特征的列向量(20*20 pixel image).用 X 矩阵表示整个训练集,则 X 是一个 5000*400 (5000行 400列)的矩阵 另外,还有一个5000*1的列向量 y ,用来标记训练数据集的结果.比如,第一个训练实例对应的输出…
Hinton的第6课,这一课中最后的那个rmsprop,关于它的资料,相对较少,差不多除了Hinton提出,没论文的样子,各位大大可以在这上面研究研究啊. 一.mini-批量梯度下降概述 这部分将介绍使用随机梯度下降学习来训练NN,着重介绍mini-批量版本,而这个也是现今用的最广泛的关于训练大型NN的方法.这里再回顾下关于一个线性神经元他的错误表面是怎样的. 这里的错误表面就是在一个空间中,水平轴是对应于NN的权重,竖直轴对应于所产生的错误的表面.对于一个误差平方的线性神经元,这个表面总是一个…
FastRCNN 训练自己数据集 (1编译配置) 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang-loves-baiyan/ https://github.com/YihangLou/fast-rcnn-train-another-dataset 这是我在github上修改的几个文件的链接,求星星啊,求星星啊(原谅我那么不要脸~~) FastRCNN是Ross Girshick在RCNN的基础上增加了Multi task trainin…