找回密码
 立即注册
科技快报网 首页 数码 数码外设 查看内容

NVIDIA黄仁勋“挑战”CPU:GPU训练AI大模型可降低96%成本

2023-05-29 17:02:26 来自: 快科技

快科技5月29日消息,在刚刚召开的2023年台北电脑展上,NVIDIA首席执行官黄仁勋进行了演讲。

在演讲中,黄仁勋向传统的CPU服务器集群发起“挑战”,认为在人工智能和加速计算这一未来方向上,GPU服务器有着更为强大的优势。

根据黄仁勋在演讲上展示的范例,训练一个LLM大语言模型,将需要960个CPU组成的服务器集群,这将耗费大约1000万美元(约合人民币7070万元),并消耗11千兆瓦时的电力。

NVIDIA黄仁勋“挑战”CPU:GPU训练AI大模型可降低96%成本

相比之下,同样以1000万美元的成本去组建GPU服务器集群,将以仅3.2千兆瓦时的电力消耗,训练44个LLM大模型。

NVIDIA黄仁勋“挑战”CPU:GPU训练AI大模型可降低96%成本

如果同样消耗11千兆瓦时的电量,那么GPU服务器集群能够实现150倍的加速,训练150个LLM大模型,且占地面积更小。

而当用户仅仅想训练一个LLM大模型时,则只需要一个40万美元左右,消耗0.13千兆瓦时电力的GPU服务器即可。

换言之,相比CPU服务器,GPU服务器能够以4%的成本和1.2%的电力消耗来训练一个LLM,这将带来巨大的成本节省。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:乃河

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:快科技

相关阅读

微信公众号
意见反馈 科技快报网微信公众号