百度首席科学家 Andrew Ng谈深度学习的挑战和未来(转载)
转载:http://www.csdn.net/article/2014-07-10/2820600
人工智能被认为是下一个互联网大事件,当下,谷歌、微软、百度等知名的高科技公司争相投入资源,占领深度学习的技术制高点,百度在2014年5月19日宣布曾领导谷歌的深度学习项目——Google Brain ,被誉为谷歌大脑之父的Andrew Ng加盟百度,正式领导百度研究院工作,尤其是Baidu Brain计划。7月7日,他应邀做客中国科学院自动化研究所,发表了《Deep Learning:Overview and trends》的学术报告,本文来自新浪梁斌的博客。
以下为原文:
一早出发,8点20就赶到现场, 人越聚越多,Ng提前几分钟到达现场,掌声一片。
Ng的报告总体上提到了五个方向。
1. Deep Learning相比于传统方法的优势
首先,一个很直观的图,随着训练量的提高,传统方法很快走到天花板,而Deep Learning的效果还能持续走高,后来这个在提问环节也有同学问道,是否会一直提高,Andrew Ng也坦诚需要面对不同的问题来讨论,而且任何方法都有天花板。
这个问题蛮关键的,我补充回答一下,其实这是一个特征表达力的问题,传统方法特征表达力,不如Deep Learning的多层学习得到的更有效果的表达。举个例子,假定有一种疾病,这种疾病容易在个高且胖的人群,以及个矮且瘦的人群中易感。那么任意从给一个特征角度上看,比如肥胖,那么胖的这部分人中,得此病的概率为50%,不胖的也是50%,那么"胖"这个特征没有表达力。
用学术上的术语来说,身高和体型是两个Marginally independent的变量,即如果观察到了他们产生的结果,他们就不独立了。也就是如果身高和体型在用于检测这种疾病的时候,他们就不独立了,因此需要有一种特征表示的方式来表示他们的这种不独立性,能够combine他们以形成更好的特征。而这种更结构化的特征,需要大量的语料才能training到位。而独立性的特征,往往少部分语料就可以获得很好的结果,但随着语料数量的提高,无法observe到结构化的特征,因此更多的语料就浪费了。我们都知道这是AI领域的XOR问题,也就是二层神经网络就能求解,换言之,多层神经网络mining出来更好的特征。
接着Ng也直观的展示了,从像素级特征(表达力最弱)到edges级特征,直到object级特征。 从edges特征大家看到的这个形式,其实是深度神经网络的edges中的一个小块,就是input layer到第一个hidden layer之间的一组边(如果是RBM 的话)或者是第一个hidden layer到output layer的一组边,这组边可以理解成training的成果。而hidden layer是一个sparse coding的向量,用来combine不同组的边来还原出input layer。
因此可以看到,通过深度学习的处理,无需tagged data,通过自学习的方式,就可以做到特征的表达力从像素级,提高到了 object models,多么美妙啊,难怪Ng用了Amazing这个词,而且再一次地露出了特有的微笑。
2. Deep Learning存在的问题
Ng提到了,通常学生试验在10 million connections这个水平,因为再大已经超出计算的能力,但如果采用并发的方法,160000万个CPUs的情况下,可以达到1 billion connections这个水平。如果采用特制的GPU来计算,可以达到10 billion connections的水平。
从我自己的实验结果看,目前做千万connection是没问题的,时机成熟我就开放出来,但受限于CPU在向量计算的劣势,再大的话,每一轮训练的时间就会大大提高,变得不可计算,而分布式Parameter server的搞法,虽然能够第一步把语料shard一下,然后各自训练,到了最高层用类似transform learning的法子再combine(这段话是我自己猜测的,Ng的报告这里我没听太懂,图片是按照记忆画出)。
我个人的理解,就是一个巨大语料切成n个部分,每个部分产生表达力强的特征,而这些表达力强的特征在一个阶段,就是那个长条哪里进行combine,也就是这个hidden layer可以很好的表达来自不同shard的特征,最后在展开各层,用不同shard上的tagged data 来进一步调整每条边的权重。
3. Deep Learning的Idea
这个可能没什么可说的,但我认为很重要,这段话不难翻译,人脑中大部分感知器是一个非常简单的计算过程。但通过组合可以达到很高的理解力。但问题是如何组合,感知的过程如何从低级阶段到高级阶段,从明暗,色彩的感知,到人类喜怒哀乐的情感,整个过程的每一步可能都是naive得,但整个认知链条的末端一定是语义的,有感情的,上升到概念的。另外,通常还有一个体会,比如看一本小说,脑海中就能自然浮现画面,可见不同神经感知器也不是完全独立的,而是彼此联系的。
4. Deep Learning的一些成果
报告中提到很多成果,特别是提到了图像识别中,在DL面前,SIFT特征提取算法弱爆了,我还是为Ng的自信和霸气,略震了一下。按照常规,学术界的同志应该谦虚,尊重下老前辈,尊重下传统的。
后来的提问环节,也有同学问到,那些old 算法框架怎么办呢?Ng说无论怎样,这就是科学技术的趋势,当一个东西产生明显效果后,越来越多的方法会采用这些新方法,而传统方法,不是说研究者就立马到zero,但的确会fewer and fewer。当时我心里想,无论如何如何,总得有留下少部分坚守的同志,没准10年后翻身也难说,但大部队应该扑新方法的。
5. 未来趋势
Andrew教授对深度学习未来的发展进行了展望:1)将会越来越重视对无标记数据的特征学习;2)深度学习将全面占领计算机视觉和语音识别领域;3)向量化表示的提出将对NLP领域产生重大影响,并将对机器翻译、网页搜索和对话系统等性能提升有所帮助。总的来说,模型的规模依旧是最大的挑战。
提问环节有很多有趣的话题,比如有人问百度,以及Andrew Ng本人对Spark的评价,Ng回答到,百度用了很多开源工具,但机器学习的很多问题太Uniq了,太特殊了,而Spark这种通用的东西很难满足需求,当然不是说Spark不好,只是Ng本人也很少用(用了Less这个词汇)。
还有包括为什么加入百度,Ng说了三个原因,第一他认为机器学习是Transform世界,Transform互联网的一种方式,相比coursera更加感兴趣。第二百度拥有大量优秀的科学家,高质量的同事,比如余凯,张潼,徐伟同志等等。第三,百度拥有大量的data, 还有个同学要DL的Reading List,Ng给了个这个:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Recommended_Readings 。另外根据网友@ fiona_duan 的反馈。最后Andrew提到的是他出生于香港,长在英国和新加坡,之后在美求学和生活。他和妻子都在美国。他妻子叫Carol Reiley. Carol 是约翰·霍普金斯大学的医学博士以及在读计算机博士,研究方向是生物医学方向的机器人应用。
人物介绍:Andrew NG教授2014年5月16日加入百度,担任百度公司首席科学家,负责百度研究院的领导工作。加入百度前任斯坦福大学计算机科学系和电气工程系的副教授,斯坦福人工智能实验室的主任。Andrew Ng是深度学习领域的顶级专家,曾领导谷歌的深度学习项目——Google Brain ,被誉为谷歌大脑之父。Andrew Ng还是在线教育平台Coursera联合创始人。2013年《时代》杂志评选的全球最具影响力百大人物中上榜的十六名科技人物之一。
百度首席科学家 Andrew Ng谈深度学习的挑战和未来(转载)的更多相关文章
- 转:浅谈深度学习(Deep Learning)的基本思想和方法
浅谈深度学习(Deep Learning)的基本思想和方法 参考:http://blog.csdn.net/xianlingmao/article/details/8478562 深度学习(Deep ...
- Yann LeCun清华演讲:深度学习与人工智能的未来
2017年3月22日下午,Facebook人工智能研究院院长.纽约大学终身教授Yann LeCun在清华大学大礼堂为校内师生以及慕名而来的业内人士呈现了一场主题为<深度学习与人工智能的未来(De ...
- 以CapsNet为例谈深度学习源码阅读
本文的参考的github工程链接:https://github.com/laubonghaudoi/CapsNet_guide_PyTorch 之前是看过一些深度学习的代码,但是没有养成良好的阅读规范 ...
- 浅谈深度学习中的激活函数 - The Activation Function in Deep Learning
原文地址:http://www.cnblogs.com/rgvb178/p/6055213.html版权声明:本文为博主原创文章,未经博主允许不得转载. 激活函数的作用 首先,激活函数不是真的要去激活 ...
- The Activation Function in Deep Learning 浅谈深度学习中的激活函数
原文地址:http://www.cnblogs.com/rgvb178/p/6055213.html 版权声明:本文为博主原创文章,未经博主允许不得转载. 激活函数的作用 首先,激活函数不是真的要去激 ...
- TensorFlow从0到1之浅谈深度学习(10)
DNN(深度神经网络算法)现在是AI社区的流行词.最近,DNN 在许多数据科学竞赛/Kaggle 竞赛中获得了多次冠军. 自从 1962 年 Rosenblat 提出感知机(Perceptron)以来 ...
- 谈一谈深度学习之semantic Segmentation
上一次发博客已经是9月份的事了....这段时间公司的事实在是多,有写博客的时间都拿去看paper了..正好春节回来写点东西,也正好对这段时间做一个总结. 首先当然还是好好说点这段时间的主要工作:语义分 ...
- 深度学习哪家强?吴恩达、Udacity和Fast.ai的课程我们替你分析好了
http://www.jianshu.com/p/28f5473c66a3 翻译 | AI科技大本营(rgznai100) 参与 | reason_W 引言 过去2年,我一直积极专注于深度学习领域.我 ...
- 2014-7 Andrew Ng 自动化所报告听后感
原文:http://blog.sina.com.cn/s/blog_593af2a70102uwhl.html 一早出发,8点20就赶到现场, 人越聚越多,Ng提前几分钟到达现场,掌声一片. N ...
随机推荐
- 一种通过HTTP传文件出网的姿势
在外网机器上运行文件服务接收服务 root@kali:~/pentest-script/FileTransfer/HttpServer# python3 SimpleHttpUpload.py Ser ...
- 集合框架源码学习之LinkedList
0-1. 简介 0-2. 内部结构分析 0-3. LinkedList源码分析 0-3-1. 构造方法 0-3-2. 添加add方法 0-3-3. 根据位置取数据的方法 0-3-4. 根据对象得到索引 ...
- Python模块学习 - click
Click模块 click模块是Flask的作者开发的一个第三方模块,用于快速创建命令行.它的作用与Python标准库的argparse相同,但是,使用起来更简单. click是一个第三方库,因此使用 ...
- peewee外键性能问题
# 转载自:https://www.cnblogs.com/miaojiyao/articles/5217757.html 下面讨论一下用peewee的些许提高性能的方法. 避免N+1查询 N+1查询 ...
- "Flags mismatch irq" register interrupt handler error
Question : When you see the log "Flags mismatch irq ............", maybe you use the same ...
- [How to] 真机调试
1.简介 真机调试介绍. 在xcode7之前需要每年99刀的代价才能活着开发者权限并能够在真机上调试,现在如果单纯的想在真机上调是就不必花这个钱了. 2.步骤 完毕.
- cpu占用高 20180108
1.top 中的mysql占用高,在mysql中开启慢查询,用tail -f 监控慢查询日志,发现是有表的索引不合理: 2.top 中的php_fpm的进程数高,修改了一下php_fpm的配置文件p ...
- Webstorm和Eclipse常用快捷键
快捷键配置 点击“File”-> “settings” Webstorm预置了其他编辑器的快捷键配置,可以点击 默认配置-Eclipse的常用快捷键对照表 查找/代替 Webstorm快捷键 E ...
- IE7下面iframe滚动条无法用鼠标轮滚 其他浏览器可以
1.让 IFRAME 隐藏滚动条,通常的做法就是在嵌入 IFRAME 的页面的 CSS 中指定以下规则: html, body {overflow: hidden} 2.如果只是想隐藏横向滚 ...
- swagger关闭生产访问
通过profile注解来处理. Swagger的congif类上声明@Profile({"dev", "test"}),发布到生产上使用product的prof ...