找回密码
 立即注册
科技快报网 首页 科技快报 IT资讯 查看内容
百店开业 千店同庆!联想十一购机福利大放送:打卡门店送贴膜服务、到店购机抽奖必中得力集团就"跛脚员工入职被辞"事件致歉并公布整改措施一群“数贸新生代”即将从义乌搅动全球鲸鸿动能发布“Family Reach”家庭场景化解决方案,撬动营销新增量猜诺奖赢百万京豆!京东图书开启“2025文学预言”狂欢KWL新店继上海后落子重庆,酷特智能“逆周期动力”从何而来?易车研究院洞察报告:自驾游成车市新增长极?旅游复苏带动汽车消费结构性变化东软以“可信、可控、可持续”路径,引领AI医疗进入深水区多筒洗衣机新品9月扎堆首发 京东已成核心销售阵地发布全新太阳能智能杀虫灯,以绿色科技守护农业未来赛意信息以工业AI验证技术价值,向物理AI开启进阶之路高通专家:在“混合AI”的未来,6G 将成为连接云与边缘的核心纽带打响AI价值落地第一枪,天润融通携ZENAVA亮相2025云栖大会首驱发布“智能出行机器人”,三大行业首创技术重塑两轮赛道宜信公益基金会深化帮扶合作,共筑卓资县学子成才之路出海寻增量,东南亚凭什么成商家 “必争之地”?讯飞星火秋招“整活”,呼兰的星火奇妙夜“空降”高校!高通安蒙谈未来愿景:让AI真正无处不在海尔、格力、康巴赫限量5折抢 京东家电家居好物国庆惊喜大放价HC2025丨高校创新力量“花开”开发者日,鲲鹏昇腾使能科研创新

引领大模型推理效率革命!浪潮存储发布国内首款推理加速存储AS3000G7

2025-07-29 15:06:51

2025年7月25日,浪潮存储营销总监张业兴出席中国信息通信研究院主办的2025(第二届)产融合作大会。会上,张业兴发表题为《融存智用 运筹新数据 ——浪潮存储金融解决方案和实践》的主题演讲,并代表浪潮存储正式发布国内首款推理加速存储AS3000G7。该产品凭借“以存代算”的技术创新,有效破解KV Cache重复计算带来的算力和时延损耗难题,为大模型推理场景提供突破性解决方案,加速推动大模型在金融、科研等领域的规模化落地。

  大模型推理效能瓶颈:吞吐量和时延

  当前人工智能大模型的应用已渗透千行百业,既推动着产业效能的跨越式提升,也深刻重构着生产生活的底层逻辑,成为驱动数字经济发展与社会智能化升级的核心力量。随着大模型应用的普及和相关技术的发展,各行各业对大模型应用的关注点逐渐从大模型的训练转到大模型的推理。据IDC数据显示,智能算力规模在未来5年增长1.7倍,用于推理的工作负载将从2023年的40%上升到2027年的70%以上。因此,大模型推理将会成为未来大模型应用的焦点。然而,当前大模型推理仍然需要借助GPU服务器来实现,而GPU服务器,也是整个大模型落地中最昂贵的投资。因此,充分发挥GPU服务器的利用率来提升大模型推理效率是大模型的落地关键,推理效率的高低直接决定着大模型从“实验室”到“生产线”的落地速度。

  大模型推理效率面临两大核心瓶颈:吞吐量(Tokens/s)和时延。吞吐量是指系统在单位时间内能处理的tokens的数量,数值越高表明LLM服务资源利用率越高、系统成本越低。时延则是用户接收每个token的平均耗时,其中首字时延(TTFT)是长文本对话场景中 “实时交互体验” 的核心指标,直接影响用户体验。

  大模型的推理包含两个阶段,第一个阶段是预填充(Prefilling)阶段。Prefilling阶段处理输入,构建初始上下文并缓存成KV Cache(key-value键值对),缓存在GPU的HBM显存里。第二个阶段是解码(Decode)阶段,解码阶段则利用Prefilling阶段生成的KV Cache,迭代地生成输出Token,最终给出推理答案。

  根据大数据统计分析,超过 76% 的对话都是多轮的,多轮对话会产生大量的KV Cache,上一轮的对话产生的KV Cache也会作为下一轮推理的输入基础,为连续交互提供上下文支撑。但实际场景中,GPUHBM显存容量存在明显限制,因此多轮对话中的KV Cache会被强制丢弃,在下一轮对话中需要消耗算力来重新计算。以DeepSeek 70B模型为例,其每10分钟产生的KV Cache高达25TB,但每张GPU HBM显存只有几十GB,因此,在服务完一个请求后,需清空显存以接纳新请求,KV Cache被强制丢弃,在后续对话中,原本可复用的KV Cache需要重新计算。这种重复计算直接时延增加(首字响应变慢),同时造成GPU算力空转(重复执行相同计算),导致吞吐量下降,最终导致资源利用率降低。因此,高效管理KV Cache缓存成为提升推理效率的关键。

  存储产品托管KV Cache,实现“以存代算”

  浪潮存储AS3000G7作为国内首款推理加速存储,可存储所有KV Cache及多轮对话结果。其创新架构通过将KV Cache从GPU写入本机内存,再经高速网络缓存至AS3000G7,下轮对话时按需拉取缓存无需重新计算,彻底实现“以存代算”,显著节省算力消耗并提升资源利用率。

  作为国内首款推理加速存储产品,AS3000G7以四大核心优势重塑推理效率:

  降低响应延迟:将历史Token缓存至AS3000G7存储层,下轮对话从NVMe SSD硬盘中拉取历史token的KV Cache,减少GPU重复计算带来的资源消耗,TTFT降低90%;

  承载更多并发:TTFT在400ms以内的前提下,系统可支持的吞吐量(Token/s)可达原方案5倍,单位GPU资源可承载更多推理请求;

  降低GPU功耗:TTFT的降低与并发的提升,单Token平均功耗下降60%,在承载同等规模 token 负载时,GPU服务器整机功耗降低。

  生态兼容适配:广泛兼容国产与海外芯片的异构算力平台,深度适配vLLM框架下的deepseek等主流大模型,优化推理体验。

  在某头部客户联合测试中,采用1台GPU服务器搭配1台AS3000G7推理加速存储的组合方案实现:

  稳定支撑500+并发对话,TTFT降低90%,响应速度大幅提升

  同硬件配置下吞吐量(Tokens/s)提升5倍,在不增加 GPU 资源的情况下,实现更高并发的推理请求

  单token功耗降低70%,单位算力成本降低60%,推理性价比提升

  随着大模型推理需求的持续攀升,AS3000G7的推出恰逢其时。其通过 “以存代算” 的技术创新突破 KV Cache 重计算瓶颈,为 AI 规模化应用筑牢存储根基。未来,随着多模态与实时交互场景的普及以及存储与计算的协同优化,KV Cache “以存代算”将成为降本增效的核心竞争力,为智能时代的推理存储构建新基准。

  免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

发布者:科技君

相关阅读

微信公众号
意见反馈 科技快报网微信公众号