(原创)我对未来的人类的发展,以及AI技术发展的一些思考。
最近AI非常的火,不仅仅是阿尔法狗的成功,因为它击败了人类最强的大脑,颠覆了人类几千年来的对传统的认识,也让人类意识 到了一个问题:天外有天,人外有AI。
那么AI究竟会对人类的未来造成什么深远的影响呢?它又将怎么改变人类的生活呢?我来列举几个阶段性的东西,希望能给大家一些思考和启发。
近期:AI其实我个人感觉10年前并不是很火,但是最近突然火了起来,主要的发展还是在图片识别了文字识别方面,比如最明显的东西就是谷歌翻译现在越来越准了,这都可以理解为深度学习的一些成功。
第一个100年
1.我个人认为,AI的近期的发展应该是最近10~20年,这是AI的近期发展,AI可以代替很多东西,比如司机,翻译,或者是一些传统行业的一些机械化的操作,
2.第二个近期阶段应该在20~30年以后,这个时候的AI虽然还不具备人类的思维,但是它可以代替更多的职业,比如教授人类数学,语文,以及其他学科,在教育和医疗领域,AI将会取代教师和医生,以及程序员,大家都是程序员,会在网上找答案,调试BUG,这些东西,AI可以做得更快,更好,个人觉得在俺们退休以前,AI应该就可以 提前解放大家了。
3.AI是什么?AI是什么?AI是什么?我问自己三遍,其实我心里面已经有了答案,AI,就是对人类的超越,这个阶段(60-80年以后)的AI已经有了对人类的思维的完全模仿,并且它拥有一个永不断电的超级大脑,它可以模仿人类的思维,并且不会产生任何错误,这个时候的AI,可以说在某些程度上,能帮助人类做更多的事情,或者说从这个阶段开始,AI已经开始反哺人类,因为,它比任何一个人更加聪明。
4.随着AI的发展,人类并不会沉沦,这个阶段,人类可以很好的利用AI,但是。。。。人类不知道,好日子,或者说是甜蜜的日子,终究是少数的,因为人类总认为人类是这个宇宙中最高级的生物。
AI的优势究竟在哪里?
想要理解AI真正的潜力和优势,就要理解人类的弱点。那么人类的弱点究竟是什么呢?(我是认真的,不是写科幻小说),我觉得人类的弱点,就在于几百万年,几千万年来,形成的对这个世界认识的一些固有模式,具体的我就不详细说了,我只想说一点,你认为对的,不一定是对的,大家认为是对的,你认为是错的,不一定是错的,也许是大家都错的呢?
AI的优势其实可以概括为2个字:试错。试错其实非常非常的重要,其实作为人来说,试错的能力是很弱的,因为每个人都会被现有的环境思维所束缚思想,不管你是多么的聪明,你永远有你的一个极限。
那么AI还有什么优势呢?AI还有一个优势,那就是它其实是一个占据了大数据的大脑,那么其实就是一个“”网络“”的概念,AI最大的优势在于它的Unlimited性,比如一个人的大脑有限,机器呢?加块硬盘就OK了,其实就是我们说的横向扩展能力,这是很变态的(别笑,我是认真的),试想一下,未来有有一个AI大脑和你竞争JAVA职位,你是多么的无奈和渺小啊。。
第二个100年
这个时候的AI,其实作为以人类的视角来分析AI,我觉得是不对的,这就好像以“”低等动物”的去思考去分析“高等动物”一样可笑,往往会得到错误的结论,不过有一点我可以100%肯定,这个时候的AI,已经获得了长足的发展,它可以脱离人类的一些固有思维,去开创一片新的天地,或者说是第二个100年的某个时候,会出现AI革命,类似工业革命,物理学家霍金其实很担忧AI会取代人类,我不是很同意他的观点,我的观点其实很简单,这个时候的AI,已经可以向外太空发展(当然我不确定是不是这样),AI的使命不是颠覆人类,而是完成人类不能够完成的一些梦想,毕竟,机器人不需要空气嘛,啥太阳辐射什么的,都是 小CASE。大家可以想象一下,人类的未来。
总结
其实我觉得,也许把,AI技术的发展只是人类发展历史当中的一个小小的关卡,AI并不是技术的极限,也不是宇宙的极限,以上内容如有雷同或者啥啥啥的,就当做茶余饭后的笑话吧,不过有一点我可以肯定,AI是人类的一个契机,至于后面的,我感觉还是有点难以预测,所以就到这里喽。另外,这篇文章只是从科幻的角度来阐述AI的一些东西,大家也不要太在意啦。
(原创)我对未来的人类的发展,以及AI技术发展的一些思考。的更多相关文章
- 快照(Snapshot)技术发展综述
快照(Snapshot)技术发展综述 刘爱贵 摘要:传统数据备份技术存在备份窗口.恢复时间目标RTO和恢复时间点RPO过长的问题,无法满足企业关键性业务的数据保护需求,因此产生了数据快照技术.本文对快 ...
- 一个AI产品经理怎么看AI的发展
一个AI产品经理怎么看AI的发展 https://www.jianshu.com/p/bed6b22ae837 最近一直在思考这个问题,人工智能接下来的几年会有什么样的发展,是否真的能够在很多工作岗位 ...
- 【转】RAID 技术发展综述
原文地址:https://blog.csdn.net/liuaigui/article/details/4581970 摘要 :现代企业信息化水平不断提高,数据已经取代计算成为了信息计算的中心.这 ...
- 视频基础知识:浅谈视频会议中H.264编码标准的技术发展
浅谈视频会议中H.264编码标准的技术发展 浅谈视频会议中H.264编码标准的技术发展 数字视频技术广泛应用于通信.计算机.广播电视等领域,带来了会议电视.可视电话及数字电视.媒体存储等一系列应用,促 ...
- Web UI 技术发展历程
本文内容 纯文本和静态 HTML 页面 服务器端技术 插件技术--ActiveX.Applet 和 Flash Ajax 异步时代和基于 JavaScript 的 UI 技术 RIA--Adobe F ...
- 十年WEB技术发展历程
一个小分享,知识有限,抛砖引玉. ajax 03年的时候我上六年级,那时候网吧刚在小县城的角落萌生.传奇,大话西游第一代网游一时风靡.我抱着试一试的心态给了网吧老板两块钱想申请个号玩玩,然后接下来的一 ...
- HyperLedger Fabric 1.4 区块链技术发展(1.3)
区块链技术发展经历区块链1.0(数字货币).区块链2.0(数字资产与智能合约)和区块链3.0(各种行业分布式应用落地)三个阶段.区块链在应用上分为公有链(PublicBlockChains).联盟链( ...
- 转:SLAM算法解析:抓住视觉SLAM难点,了解技术发展大趋势
SLAM(Simultaneous Localization and Mapping)是业界公认视觉领域空间定位技术的前沿方向,中文译名为“同步定位与地图构建”,它主要用于解决机器人在未知环境运动时的 ...
- NGK英国路演圆满结束,未来科技布局看好NGK公链技术
近日,NGK全球路演英国站在首都伦敦圆满结束.区块链业内专家.各投行精英.各市场节点代表.八大产业代表参加了此次路演.同时,英国经济学人.每日邮报.金融时报等近百家财经媒体对此路演进行了大力报道.并且 ...
随机推荐
- js原生设计模式——13桥接模式(相同业务逻辑抽象化处理的职责链模式)
桥接模式之多元化类之间的实例化调用实例 <!DOCTYPE html><html lang="en"><head> <meta ch ...
- js原生之设计模式开篇介绍
本文主要讲述一下,什么是设计模式(Design pattern),作为敲键盘的我们要如何学习设计模式.设计模式真的是一把万能钥匙么? 各个代码的设计模式几乎每个人都知晓,就算不会那也一定在一些 ...
- SVG的text使用
SVG的text使用: 参考:http://www.docin.com/p-7393979.html <%@ page language="java" contentType ...
- [linux]ngrep命令、常见用法
1.ngrep命令 ngrep命令是grep命令的网络版,ngrep用于搜寻指定的数据包(抓包.过滤).能识别TCP.UDP和ICMP包,理解bpf的过滤机制. 1.1 安装 brew install ...
- HDU4403(暴搜)
A very hard Aoshu problem Time Limit:1000MS Memory Limit:32768KB 64bit IO Format:%I64d & ...
- 从php到浏览器的缓存机制,不得不看!
所有的php程序员都知道在php脚本里面执行 echo "1";访客的浏览器里面就会显示"1". 但是我们执行下面的代码的时候,并不是显示"1&quo ...
- Javascript/js的相等和不等运算符(= 、== 、===)
"=="和"==="运算符用于比较两个值是否相等,当然它们对相等的定义不尽相同.两个运算符允许任意类型的操作数,如果操作数相等则返回tru,否则返回false. ...
- requireJS的初步掌握
前一段时间,因为一些事吧这个习惯落下了,现在争取重新捡起来. 最近开始自学requireJS,为了更好的掌握,所以写出一个自我理解的博客供参考. 分割线------------------------ ...
- 《InsideUE4》UObject(四)类型系统代码生成
你想要啊?想要你就说出来嘛,你不说我怎么知道你想要呢? 引言 上文讲到了UE的类型系统结构,以及UHT分析源码的一些宏标记设定.在已经进行了类型系统整体的设计之后,本文将开始讨论接下来的步骤.暂时不讨 ...
- codeforces div2.C
C. New Year and Rating time limit per test 2 seconds memory limit per test 256 megabytes input stand ...