找回密码
 立即注册
科技快报网 首页 科技快报 IT资讯 查看内容
游戏电视迈入3.0时代 京东携手行业合作伙伴推动新标准落地柏林国际电子消费品展览会强化与中国合作伙伴关系,凸显全球创新精神《战地6》免费周将至 华硕X870/B850主板开启限时体验华硕B860主板装机神器 带你围观TGA 2025游戏提名ROG MAXIMUS Z890 APEX主板创DDR5-13322超频新纪录共绘汽车产业全域升级新图景 2026腾易年度汽车盛典圆满落幕以数据为钥 东软解决方案论坛解锁智能世界新密码BOE(京东方)陈炎顺阐释企业发展战略升维路径:“传承、创新、发展”铸就基业长青超擎数智亮相 NVIDIA 中国开发者日2025,携手开发者,探索AI无限前景!智慧医疗里的“中国方案”:开源鸿蒙重塑传统病房体验天马以“创见·新境”开启显示新纪元,11项技术重塑显示行业格局索尼专业校色服务上线:一场由画质引领者发起的“色彩价值”革命海尔机器人与INDEMIND达成战略合作,突破空间智能泛化难关,共创家庭具身AI新生态京东11.11百吋电视销量突破6万台 “超级供应链”引领家电产业升级技术创新带来丰富体验,高通李俨:AI与6G的发展是相辅相成的当算力追逐遇上数据瓶颈:DRAM成AI价值链重构的战略中枢PA官网正式上线,科技企业推动竞技娱乐透明化让AI为我所用!不想用碎片时间学习如何借助AI实现自我提升“电影走着看,VR摸着玩”,龙程VR《星际旅客》全感剧场亮相2025高交会海马云与腾讯云签署战略合作协议 共建AIGC内容创作平台新生态

霍金:人工智能等技术的发展或将毁灭人类

2017-03-15 09:43:24

  在2015年的一次网络问答中,霍金指出人工智能可能会成长到非常强大的程度,甚至可能在完全无意的情况下毁灭人类。

新浪科技讯 北京时间3月15日消息,据国外媒体报道,斯蒂芬·霍金近日警告称,技术的发展需要得到控制,以阻止其毁灭人类。在此之前,这位世界知名的物理学家就曾警告过人工智能的危险。他认为,人类必须找到一种方法,在重大破坏造成之前迅速发现所面临的威胁。

“从文明开始之时,侵略就一直是很有用处,因为它有着绝对的生存优势,”霍金说,“通过达尔文式的演化过程,侵略性深深根植于我们的基因之中。然而,如今的技术发展已经加快到了某种程度,使这种侵略性可能会以核战争或生物战争的形式毁灭人类。我们需要用逻辑和理性来控制这种与生俱来的本能。”

不过,霍金也表示,尽管人类面临着各种各样的问题,但依然有希望存活下去,而这需要我们所有人都一起努力。“我们需要更快地认识这些威胁,并在它们失去控制之前采取行动。这可能意味着需要建立某种形式的世界政府,”霍金说道。

世界政府可能也会产生各种各样的问题。“(世界政府)可能会变成一种暴政,”霍金说,“所有这些听起来似乎是在说人类已经在劫难逃,但我是一个乐观主义者。我认为人类将奋起应对这些挑战。”

在2015年的一次网络问答中,霍金指出人工智能可能会成长到非常强大的程度,甚至可能在完全无意的情况下毁灭人类。“人工智能的真正威胁并不在于它们的恶意,而是它们所具有的能力,”霍金说,“一个超级聪明的人工智能在完成目标时具有极强的能力,而一旦这些目标与我们人类不一致,那我们就有麻烦了。”

他继续说道:“你可能并不是一个讨厌蚂蚁的人,但也会无意中踩死蚂蚁,而如果你负责一个水力发电的绿色能源项目,项目所在的区域内也可能会有许多蚂蚁巢穴被水淹没,对蚂蚁来说就非常不幸。我们要避免人类处于这些蚂蚁的境地。”

特斯拉公司的首席执行官伊隆·马斯克也提出了类似的观点,他曾警告称,人工智能的发展必须受到控制。“随着时间推移,我认为我们可能会看到生物智能和数字智能出现更加密切的融合,”马斯克说道。他还提出,人类在未来可能会与机器实现结合,以跟上人工智能的发展步伐。(任天)

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:sophia

相关阅读

微信公众号
意见反馈 科技快报网微信公众号