找回密码
 立即注册
科技快报网 首页 科技快报 科学资讯 查看内容

霍金称AI可能毁灭人类,有理有据不服来辩

2016-10-20 22:18:00 来自: 爱范儿吴羚

科幻小说《2001:太空奥德赛》和根据它改编而成的经典电影《2001太空漫游》,讲述了AI由人类帮手变为人类毁灭者的故事。我们亲手打造的AI,会在未来葬送人类吗?霍金表示,这绝非危言耸听。

▲图片来自:视频截图

近日,在剑桥大学Leverhulme智能未来中心的开幕式上,霍金为火爆的AI行业泼了盆冷水。

“我们花了大量时间学习历史,”霍金在演讲中说道,“而我们所面对的历史,大多是愚蠢的。所以,现在人们在研究智能的未来,这是一个令人欣慰的变化。”

霍金表示AI研究的确带来了许多积极因素,认为通过这项新技术,人类或许能够消除工业化对自然界造成的一些损害,而最终目标肯定是消除疾病和贫困。

“创造出智慧的潜在好处是巨大的,我们无法预测当我们的心智被AI增强时,我们将达到何种成就。”

“我们生活的方方面面都会被改变,总之,成功创造出AI可能是我们文明史上最重要的事。”

▲图片来自:Kiplinger

然而,作为享誉世界的物理学家,霍金对于AI持谨慎态度,他认为一旦人类创造出具有自我意识的超级智慧,可能会面临着自我毁灭的风险,因为AI的意志可能会与我们产生冲突。

“总之,强大的AI的兴起,或许将是人类最好或是最糟糕的事,这我们还不清楚。”

霍金之所以会有这种担忧,是因为在他看来,AI的潜力是无限的,“生物大脑与电脑的能力并没有太区别。”

“因此,从理论上讲,计算机可以模仿人类智慧,并超越它。”

这已经不是霍金第一次对AI潜在威胁提出警告了。去年年初,霍金就与一些AI专家,还有马斯克、沃茨等名人发表联合声明,呼吁禁止武器化AI和自主作战系统。

▲图片来自:Gralien Report

当时霍金解释说,AI的真正风险不在于其是否充满恶意而在于其能力。他举了个例子:你在负责一项水利工程时,需要淹没蚁穴,尽管你并不是一个仇恨蚂蚁的人,但在完成目标时无意间就为蚂蚁带来了灭顶之灾。

所以,当一个能力MAX的超级人工智能在执行任务时,如果它的目标与人类不一致,那么人类就有可能面临与蚂蚁同样的厄运。

尽管目前人工智能的发展仍处于起步阶段,但霍金对于AI威胁的评价,或许值得我们深思:

“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:admin

相关阅读

微信公众号
意见反馈 科技快报网微信公众号