找回密码
 立即注册
科技快报网 首页 科技快报 IT资讯 查看内容
笔误?BYDFi 在圣詹姆斯公园讲述 BUIDL 背后的故事国庆换iPhone 17 Pro Max立省300元?多平台对比看哪家更划算百店开业 千店同庆!联想十一购机福利大放送:打卡门店送贴膜服务、到店购机抽奖必中2025第二十届南昌国际车展10月1日盛大开幕!得力集团就"跛脚员工入职被辞"事件致歉并公布整改措施一群“数贸新生代”即将从义乌搅动全球鲸鸿动能发布“Family Reach”家庭场景化解决方案,撬动营销新增量猜诺奖赢百万京豆!京东图书开启“2025文学预言”狂欢KWL新店继上海后落子重庆,酷特智能“逆周期动力”从何而来?易车研究院洞察报告:自驾游成车市新增长极?旅游复苏带动汽车消费结构性变化东软以“可信、可控、可持续”路径,引领AI医疗进入深水区多筒洗衣机新品9月扎堆首发 京东已成核心销售阵地发布全新太阳能智能杀虫灯,以绿色科技守护农业未来赛意信息以工业AI验证技术价值,向物理AI开启进阶之路高通专家:在“混合AI”的未来,6G 将成为连接云与边缘的核心纽带打响AI价值落地第一枪,天润融通携ZENAVA亮相2025云栖大会首驱发布“智能出行机器人”,三大行业首创技术重塑两轮赛道宜信公益基金会深化帮扶合作,共筑卓资县学子成才之路出海寻增量,东南亚凭什么成商家 “必争之地”?讯飞星火秋招“整活”,呼兰的星火奇妙夜“空降”高校!

关注人工智能领域的巨大能耗问题

2021-03-21 16:28:11 来自: 烽巢网

人工智能领域的深度学习模型越具有开创性,它们的规模就越大。今年最热门的自主语言处理模型GPT-3就是一个很好的例子。为了达到像人类一样书写的准确性和速度水平,这个模型需要1750亿个参数、350 GB内存和至少1200万美元资金的投入。但是,除了成本之外,像这样的大型人工智能模型还面临一个巨大的能耗问题。

马萨诸塞大学阿默斯特分校的研究人员发现,训练一个大型人工智能模型所需的计算能力可以产生超过60万磅的二氧化碳排放——这是一辆普通汽车在其寿命内排放量的5倍! 这些模型通常需要更多的能量来处理并生成设置(或称为推理阶段)。英伟达估计,运行神经网络模型所产生的成本中,有80- 90%来自推理过程,而不是训练过程。

为了在人工智能领域取得更大的进展,普遍观点认为,我们将不得不做出巨大的环境权衡。但事实并非如此,大型模型可以缩小到可以在日常工作站上或服务器上运行,而不必牺牲准确性和速度。

过往:计算能力平均每3.4个月翻一番

十多年前,斯坦福大学(Stanford University)的研究人员发现,用于驱动视频游戏中的图形处理器(称为Gpu),可以用于深度学习模型。这一发现引发了一场为深度学习应用程序创建越来越强大的专用硬件的竞赛。反过来,科学家们创建的模型变得越来越大。其逻辑是,更大的模型会导致更准确的结果。硬件功能越强大,这些机型运行速度就越快。

OpenAI的研究证明,这一假设在该领域已被广泛采用。从2012年到2018年,深度学习模型的计算能力平均每3.4个月翻一番。所以,这意味着在6年的时间里,用于人工智能的计算能力增长了惊人的30万倍。如上所述,这种能力不仅用于训练算法,还可以在生成设置中使用它们。麻省理工学院(MIT)最近的一项研究表明,我们可能会比想象中更快地达到计算能力的上限。

更重要的是,资源的限制使得深度学习算法的使用仅限于那些有能力使用它的人。当深度学习可以应用于从医学成像中检测癌细胞到阻止在线仇恨言论的所有领域时,我们不能限制访问。不过,我们也不能承受建造更大、更耗电的模型所带来的环境后果。

未来:变得越来越小

幸运的是,研究人员发现了一些新的方法来缩小深度学习模型,并通过更智能的算法来改变训练数据集的应用。通过这种方式,大型模型可以在生产环境中以更低的能耗运行,并且仍然可以根据用例实现预期的结果。

这些技术有可能使机器学习大众化,为更多没有数百万美元来投资训练算法并将其投入生产的组织服务。这对于“边缘”用例尤其重要,想想相机、汽车仪表盘、智能手机等微型设备吧,在这些用例中,大型的、专门的AI硬件在物理上是不实用的。

研究人员正在通过删除神经网络中一些不需要的连接,或者通过简化数学运算来缩小模型。这些更小、更快的模型可以在任何地方运行,其精度和性能与大型模型相似。这意味着我们不再需要争先恐后地使用最强大的计算能力,从而对环境造成更大的破坏。让大型模型变得更小、更高效是深度学习的未来。

另一个主要问题是针对不同的用例,在新的数据集上一遍又一遍地训练大型模型。一种叫做迁移学习的技术可以帮助防止这个问题。迁移学习使用预先训练的模型作为起点。模型的知识可以通过一个有限的数据集“转移”到一个新的任务中,而不必从头开始重新训练原始模型。这是朝着减少训练新模型所需的计算能力、能源和资金迈出的关键一步。

底线是什么?

模型可以(而且应该)在任何可能的情况下缩小,以使用更少的计算能力。并且知识可以被回收和重用,而不是从头开始深度学习的训练过程。最终,找到减少模型大小和相关计算能力的方法(在不牺牲性能或精度的情况下)将是深度学习的下一个伟大突破。通过这种方式,任何人都能够以更低的成本在生产中运行这些应用程序,而无需在环境方面做出巨大的牺牲。当我们把大型人工智能放在小的地方时,一切都是可能的——甚至是帮助阻止气候变化的毁灭性影响。

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:科技君

相关阅读

微信公众号
意见反馈 科技快报网微信公众号