Pause Giant AI Experiments: An Open Letter(暂停大型人工智能实验: 一封公开信)

前几天在 futureoflife 网站上有一封公开信,呼吁暂停大型人工智能实验,并且可以加上你的签名,目前看来包括马斯克在内的很多大佬、图领奖得主都已经签名了。

AI发展的速度确实太快了,而且如果不考虑金钱成本、不受限制的学习的话,这个速度将会是指数级的增长,在我们目前没有做好完全足够多的准备情况下,是不是要继续发展确实是个问题。

要发展,至少目前要有一个较为完善稳妥的制度,大家都知道,一种新的事物出来的时候都是野蛮式的增长的,比如P2P、加密货币,最终的结局可能都不会太好。

我看见网上有说 openAI CEO 也签名了,但是我在这份签名单上貌似没有找到的。

当然,人心叵测,我们只是平民老百姓,大佬的想法跟我们完全不同,换个角度去想,这是不是商业上的打击和竞争呢?

以下是原文和译文,原文地址贴在文末,有兴趣可以自己查看。

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.

我们呼吁所有人工智能实验室立即暂停至少6个月的培训比 GPT-4更强大的人工智能系统。

AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

具有人类竞争智能的人工智能系统可以对社会和人类构成深远的风险,正如广泛的研究[1]所显示的,并得到顶级人工智能实验室的承认。[2]正如得到广泛认可的《阿西洛马尔人工智能原则》所指出的,高级人工智能可以代表地球生命历史上的一个深刻变化,应该在相应的关心和资源的支持下进行规划和管理。不幸的是,这种规划和管理水平并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,开发和部署越来越强大的数字头脑,没有人——甚至是它们的创造者——能够理解、预测或可靠地控制它们。

Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.

当代的人工智能系统在一般任务上正变得与人类竞争,我们必须扪心自问: 我们是否应该让机器用宣传和谎言淹没我们的信息渠道?我们是否应该将所有的工作自动化,包括那些令人满意的工作?我们是否应该发展出可能最终超过我们、智力超过我们、过时并取代我们的非人类思维?我们应该冒失去文明控制的风险吗?这样的决定不能委托给未经选举产生的技术领导人。只有当我们确信它们的影响将是积极的并且它们的风险将是可控的时候,才应该开发强大的人工智能系统。这种信心必须是合理的,并随着系统潜在影响的大小而增加。OpenAI 最近关于人工通用智能的声明指出: “在某种程度上,在开始训练未来系统之前得到独立的审查可能是重要的,而且对于最先进的努力来说,同意限制用于创建新模型的计算机的增长速度也是重要的。”我们同意。那就是现在。

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

因此,我们呼吁所有人工智能实验室立即暂停至少6个月的培训比 GPT-4更强大的人工智能系统。这种暂停应该是公开的、可验证的,并包括所有关键参与者。如果这种暂停不能迅速实施,各国政府应该介入并实施暂停。

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

人工智能实验室和独立专家应利用这一暂停时间,共同开发和实施一套高级人工智能设计和开发的共享安全协议,由独立外部专家进行严格审核和监督。这些协议应该确保遵循它们的系统是安全的,不会有任何合理的怀疑。[4]这并不意味着一般意义上的人工智能开发的暂停,只是从危险的竞赛退回到具有紧急能力的更大的不可预测的黑匣子模型。

AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

人工智能的研究和发展应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、健壮、一致、值得信赖和忠诚。

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

与此同时,人工智能开发人员必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些措施至少应包括: 专门负责人工智能的新的、有能力的监管机构; 监督和跟踪高能力的人工智能系统和大量计算能力; 帮助区分真实和合成以及跟踪模型泄漏的出处和水印系统; 健全的审计和认证生态系统; 人工智能造成损害的责任; 为人工智能技术安全研究提供充足的公共资金; 以及资源充足的机构,以应对人工智能将造成的巨大经济和政治混乱(尤其是。

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5] We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.

有了人工智能,人类可以享受一个繁荣的未来。在成功创造出强大的人工智能系统之后,我们现在可以享受一个“人工智能夏天”,在这个夏天里,我们可以收获回报,为所有人的利益设计这些系统,并给社会一个适应的机会。社会对其他可能对社会造成灾难性影响的技术已经暂停使用。[5]我们可以在这里做。让我们享受一个漫长的人工智能夏天,而不是毫无准备地冲进秋天。

签署人(不一一列举)

Yoshua Bengio, Founder and Scientific Director at Mila, Turing Prize winner and professor at University of Montreal

YoshuaBengio,Mila 的创始人和科学主任,图灵奖得主,蒙特利尔大学教授

Stuart Russell, Berkeley, Professor of Computer Science, director of the Center for Intelligent Systems, and co-author of the standard textbook “Artificial Intelligence: a Modern Approach"

斯图尔特 · 拉塞尔(Stuart Russell) ,伯克利大学计算机科学教授,智能系统中心主任,《人工智能: 现代方法》标准教科书的合著者

Elon Musk, CEO of SpaceX, Tesla & Twitter

SpaceX,Tesla & Twitter 的首席执行官马斯克

Steve Wozniak, Co-founder, Apple

史蒂夫 · 沃兹尼亚克,苹果公司联合创始人

...

原文地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Pause Giant AI Experiments: An Open Letter(暂停大型人工智能实验: 一封公开信)的更多相关文章

  1. 【AI】【计算机】【中国人工智能学会通讯】【学会通讯2019年第01期】中国人工智能学会重磅发布 《2018 人工智能产业创新评估白皮书》

    封面: 中国人工智能学会重磅发布 <2018 人工智能产业创新评估白皮书> < 2018 人工智能产业创新评估白皮书>由中国人工智能学会.国家工信安全中心.华夏幸福产业研究院. ...

  2. AI—家庭组机器人平台环境配置,高级人工智能实验总结

    首先说一下我的环境:Ubuntu 12.04 32bit,  gcc 4.6.3 一,安装boost 1.48,建议用这个版本的,不然会出现兼容性问题 步骤: 其实在ubuntu下,可以用一下命令直接 ...

  3. 批处理命令——rem 和 pause

    [1]rem命令简介 注释命令,在C语言中相当于/*----------*/,它并不会被执行,只是起到一个注释的作用,便于别人及自己将来阅读和维护脚本. 为了更具体的理解,请看示例: 新建一个文本文件 ...

  4. Linux c 信号—pause、sigsuspend 的相同于区别

    pause函数:      功能:让进程暂停直到信号出现 #include<unistd.h> intpause(); 函数说明:pause()会令目前的进程暂停(进入睡眠状态),直至信号 ...

  5. ansible暂停模块

    pause 在playbook执行的过程中暂停一定时间或者提示用户进行某些操作 常用参数: minutes:暂停多少分钟 seconds:暂停多少秒 prompt:打印一串信息提示用户操作 示例: - ...

  6. cocos2dx中node的pause函数(lua)

    time:2015/05/14 描述 lua下使用node的pause函数想暂停layer上的所有动画,结果没有效果 1. pause函数 (1)cc.Node:pause 代码: void Node ...

  7. iOS 9音频应用播放音频之播放控制暂停停止前进后退的设置

    iOS 9音频应用播放音频之播放控制暂停停止前进后退的设置 ios9音频应用播放控制 在“iOS 9音频应用播放音频之ios9音频基本功能”一文可以看到AVAudioPlayer类有很多的属性以及方法 ...

  8. MMORPG大型游戏设计与开发(服务器 AI 概述)

    游戏世界中我们拥有许多对象,常见的就是角色自身以及怪物和NPC,我们可以见到怪物和NPC拥有许多的行为,比如说怪物常常见到敌对的玩家就会攻击一样,又如一些NPC来游戏世界中走来走去,又有些怪物和NPC ...

  9. dynamics 365 AI 解决方案 —— 微软布局

    核心提示:微软在 Office365.Azure 云.Dynamics365 上进行人工智能技术的部署,野心不小. 微软在2016年9月宣布组建自己的 AI 研究小组.该小组汇集了超过 5000 名计 ...

  10. MMORPG战斗系统随笔(三)、AI系统简介

    在设计一款游戏的时候,如果我们是玩家,是希望自己能够操作角色畅玩游戏的.在一款MMORPG游戏中,大部分的实际游戏角色,是需要玩家来操作的,通过在游戏大世界相互完成游戏中的任务等等来体验游戏.在大世界 ...

随机推荐

  1. react+antd pro实现【列表可实时行内编辑】的弹窗表单组件

    纯列表版效果展示: ① 初始无值,展示为唤醒按钮+文案外链 ②点击按钮唤醒弹窗(简易版示意图) ③配置后 可编辑表格组件文档: https://procomponents.ant.design/com ...

  2. vue移动端在线签名

    <template> <section class="signature"> <div class="signatureBox"& ...

  3. js 原生数据类型判断

    之前一直使用的jquery的数据类型判断,比如:isArray()等,今天看到了一个判断数据类型的简单的原生方法,分享给大家 Object.prototype.toString 方法返回对象的类型字符 ...

  4. 2月26日Android学习

    今天下载了AndroidStudio,但是不知道为什么java文件一直显示file outside of source root,可能是部分文件没有安装的原因,等文件全部下载完之后再看看.

  5. Dubbo调用 Mybatis 实体类一对多时,报错

    添加fetchType="eager"属性 ,急加载 作为笔记,供个人参考

  6. 对volatile修饰的变量使用memset函数

    背景 今天面试了一家公司,面试官问了我一个开放性的问题.大致意思是,为什么对volatile修饰的变量调用memset函数,编译的时候会报错.当然,我是不知道为什么啦.之前没有遇到过嘛.不过我还是做了 ...

  7. vue 高级部分

    props的其它内容 props的作用就是用于在子组件中接收传入的数据 props的使用方式 1.数组 props:['name'] 2.对象,指定传入变量的类型 props:{name:Number ...

  8. nodejs 利用URL和querystring获取get查询参数

    为深入理解request的get url信息及参数传递,利用URL和querystring获取对应的信息,测试成功,记录如下: 1.编写server.js文件 http=require("h ...

  9. OpenCV图像拼接函数

    图像拼接函数 第一种方法:通过遍历图像,将待拼接的图像每个像素赋值给输出图像 //图像拼接函数 //imageVector 输入图像数组 //outputImage 输出图像 //colCount_ ...

  10. 【NAS使用心得】使用Synology Photos管理照片

    整理方式 1.本地没有整理或只按年份整理的:时间线模式下直接上传,让软件自己按照片创建时间生成文件夹:有按年份生成相册需求的,可以用"选择照片以创建相册"功能,找到年份文件夹,全选 ...