小言_互联网的博客

AI既能带来世界末日,也能成为救世之主

525人阅读  评论(0)

全文共2466字,预计学习时长5分钟

     

图源:Jon Han

 

目前我们无法简单地定义人工智能,领域内的科学家们也无法在“真正的AI”组成成分和纯粹运转高效迅速的计算机程序之间达成一致。但事实是:智能指的是精准感知周围环境、采取行动,尽最大可能实现既定目标的能力。它并不意味着聪明,即储备大量知识或解决复杂数学问题。

 

计算机已经能比人类更快地处理信息。它们记住的信息量不仅大,且无损无延迟,也不会疲惫、不会出错。这已经不是新鲜事了。但是近几年计算机革命已经变成了人工智能领域的革命。AI能在象棋、围棋这类一贯被视作可靠的智能标志中打败人类。它们能瞬间识别图像,错误率很低;在股票市场的表现比股票分析师还好;几乎能像人类一样用短信交流对话;能做许多人类能做的事——甚至做得更好。

 

大部分时候,AI在学习如何去学习。这是一项人类特性,但是由于它装下的数据比人脑要多得多,且处理数据的速度比人脑快太多,它有潜力比人类学习得更快、更全面。现在学习能力很大程度上局限于狭窄的学科,但如果这项能力扩展的话,人工智能可就名副其实了。如果能做到这点,它就不再只是目前统治地球的两足猿人的工具,它很快就能与人类平起平坐。之后很快地——如果AI速度不够快,那它什么也不是——它就能超越人类。人类是智能的——智人归根结底表示“有智慧的人”。但是AI可以变得超智能。

 

人类并非比其他动物更强或更快才站到食物链的顶端,人类的成功是因为比其他动物更聪明。如果这一领先性被剥夺,那么人类也可能要祈求超智能AI的宽恕,正如濒危大猩猩祈求人类一样。人类是为了获取必需的空间资源,而非故意或出于恶意便将无数种族赶尽杀绝。同样,超智能的AI也可能仅仅因为人类的存在阻挡了它实现目标的道路,便将人类这一种族灭绝。那么人类将无法抵抗AI,就像濒危动物无法抵抗人类一样。。

 

这些警告可能并不陌生。特斯拉及太空探索技术公司的创始人埃隆·马斯克曾将AI视为“整个文明世界中人类面对的最大风险”,并认为发展通用AI是“在召唤恶魔”。已故的史蒂芬·霍金曾说,“全面的人工智能发展可能会招致人类种族的灭绝。”在真正的AI还没影子时,人们用智能机器崛起、推翻人类创造者之类的骇人故事自娱自乐:《终结者》《黑客帝国》《银河战星》《西部世界》。

 

 

存在风险作为学术性科目而存在,是出于对AI的担忧。有关存在风险所有中心机构——人类未来研究所(FHI),未来生活研究所(FLI),存在风险研究所(CSER)将AI作为重中之重。举例来说,CSER在一趟共享的出租车旅程中诞生了,当时网络电话(Skype)的共同创始人(爱沙)扬·塔林对剑桥哲学家休·普赖斯说,他认为自己死于与AI相关事故的几率和死于心脏病或癌症的一样大,塔林绝非唯一一个这么想的人。

 

AI将是最终的存在风险,因为人类将由代表人类智慧总和的产物终结。但AI也是一些人口中“存在希望”,即存在风险另一面的最后源泉。

 

人类面对自然或人为存在威胁时的脆弱性,主要归结为智力问题。人类可能还没聪明到能让一个巨大的行星转向,也尚不知道如何阻止超级火山的喷发。人类知道如何阻止一场核战争,但也没有足够的智慧保证导弹不被发射。人类也没有足够的智能研发清洁且低价的能源来源,并在保障地球上所有人都享受各自生活的同时消除环境变化的威胁。人类没有聪明到铲除传染病的威胁,或是设计出能中和任意工程性病菌的生物型防御。人类也绝没聪明到能战胜关乎所有人,或人类种族的死亡。

 

但如果AI变成其最热忱的布道者希望的那样——不仅是人工智能,而是超智能——那没什么是不可能的了。人类能在其他恒星上建立殖民地,通过将人类的意识上传到虚拟天堂长生不老,消除身为人类时的疾病和痛苦。这绝不是一个存在性浩劫,相反人们能创造一个存在性“大团圆”——突然的价值观大爆发。唯一的阻碍是智力——由人类的生理和进化埋下的障碍。但是硅谷的产物没有这样的缺陷,它们可能会成功,顺便带着人类。

 

 

也难怪如谷歌CEO桑达尔•皮查伊(Sundar Pichai)这样聪明的硅谷名人会说,AI将比“电或火”更重要。AI专家非常抢手,一毕业就能挣到高达50万美元的薪水。由美中两国主导的军队在由AI运行的自动化武器上耗费数亿,这就如曾经的核弹,将从根本上改变战争的本质。现在每家科技公司都将自己视为AI公司——脸书(Facebook)和优步(Uber)从大学里挖了一些最优秀的AI天才到公司里,2018年,谷歌将所有研究部门更名为谷歌AI。无论是建造社会网络或制造药物、设计自动化汽车,科技研究正演变为AI研究——而其他的一切就只是工程而已。

 

这些公司明白,赢得真正的AI竞赛所获得的回报是不可估量的。毫无疑问,这是一场竞赛。研发出顶尖AI的公司或国家将主宰全世界,这也是为什么直到最近研究领域才出现一些声音,确保AI安全研发,使存在风险降到最低并使存在希望最大化。这就类似于1940年代,那时候人们正进行核弹竞赛。也正如1945年7月16日黎明前聚集在新墨西哥沙漠的科学家一样,人们也不知道这项发明会带来什么,其中也包括摧毁世界的力量。

 

曼哈顿计划中的物理学家只能等待三一实验的结果,但人们还是可以积极地塑造AI发展的方向。这也是存在风险专家们痴迷于AI的原因——与人类面对的其它风险不同,在AI上人们能做出一些改变。人们能希冀将灾难转为美好结局。这同时也是一场竞赛,在AI失控前研发出控制AI工具的竞赛。这种区别可能就是未来人类的生与死的区别。

 

这就是AI——所有存在风险的由头和解决措施。正如霍金在其死后出版的最后一本书写道,“于人类而言,超智能AI的降临要么是解药,要么是毒药。”

 

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

 

编译组:徐粲、温媛

相关链接:

https://onezero.medium.com/a-i-is-the-cause-of-and-solution-to-the-end-of-the-world-2d247d37eccb

 

如需转载,请后台留言,遵守转载规范

 

长按识别二维码可添加关注

读芯君爱你

 

 


转载:https://blog.csdn.net/duxinshuxiaobian/article/details/100881764
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场