商汤x记忆张量:国产算力逆袭A100的关键一战(1/2)
最近商汤大装置和记忆张量联手搞出了个大动静——落地了业界首个国产GpGpU pd分离商用推理集群,最亮眼的成绩是:在大模型推理这个关键赛道上,综合推理性价比直接干到了同代NVIdIA A100的150%。
这话乍一听有点抽象,说白了就是:用国产的芯片和软件,跑大模型推理业务,花同样的钱能跑出1.5倍的效果,或者说跑出同样的效果,只需要花三分之二的钱。更关键的是,这不是靠堆硬件、拼参数的“笨办法”,而是靠体系级的软硬件协同创新,给国产算力闯出了一条“弯道超车”的路子,不是跟在别人屁股后面模仿。
掰扯清楚,让大家明白这波操作到底牛在哪。
一、先搞懂:大模型推理为啥这么难?pd分离又是啥?
要理解这个合作的价值,得先明白大模型推理的核心痛点。咱们平时用chatGpt、文心一言这类大模型,看似只是发个指令等回复,背后的计算过程其实分两大步,这两步的需求天差地别,也是卡住很多算力的“瓶颈”。
第一步叫prefill(预处理)。当你输入一个问题,比如“帮我写一篇关于古蜀文明的短文”,大模型要先把这段文字转换成机器能看懂的向量,然后一次性计算出大量的中间结果,也就是KV缓存。这个过程的特点是计算量大、可以批量处理,就像工厂里的流水线批量生产零件,需要算力集中发力,但对延迟要求不高——稍微等个几十毫秒,用户根本感觉不到。
第二步叫dede(解码)。大模型拿到KV缓存后,要逐字逐句生成回复,也就是“逐token生成”。比如先出“古蜀文明”,再出“是中国西南地区一支极具特色的古代文明”,每生成一个词,都要用到前面的KV缓存。这个过程的特点是计算量小,但对延迟要求极高——要是生成一句话卡个一两秒,用户体验直接拉胯,而且这个过程没法批量,只能“串行干活”。
这两步本来是在同一批硬件上完成的,问题就出在这:prefill阶段需要“暴力计算”,会占满硬件的算力和显存;等轮到dede阶段,硬件又闲着大半,算力利用率直接暴跌。尤其是国产GpGpU,本身在显存容量、生态适配方面和国际顶尖产品有差距,这么一折腾,劣势更明显——跑同样的任务,成本高、速度慢,根本没法商业化。
那pd分离是啥?说白了就是“分工合作”——把prefill和dede这两个阶段,拆到不同的硬件集群上分别处理。负责prefill的集群专门干“批量重活”,把KV缓存算好;负责dede的集群专门干“精细快活”,用现成的KV缓存快速生成回复。这样一来,硬件不用在两种模式间来回切换,利用率能提一大截。
但这里要划重点:单纯的硬件pd分离,解决不了根本问题。很多厂商之前也试过,结果发现只是把“一个瓶颈”变成了“两个瓶颈”——prefill集群算完的KV缓存,要传到dede集群,传输过程会产生延迟;而且KV缓存本身占显存,就算分开处理,显存不够用的问题还是没解决,性价比提升非常有限。
二、核心突破:不是改硬件,是重构整个推理范式
商汤和记忆张量的聪明之处在于,他们没有局限在“硬件层面拆分工序”,而是把pd分离技术,和记忆张量的核心产品oS的激活记忆体系深度绑在了一起,相当于从“流水线分工”升级到了“全产业链协同”,直接重构了大模型推理的底层逻辑。
咱们来拆解这个“协同创新”的关键操作,其实就两件核心事,件件都戳中痛点:
1. oS的激活记忆体系:让KV缓存“活起来”,省下大量显存
前面说过,KV缓存是大模型推理的“刚需”,但它特别占显存——一个千亿参数的大模型,一次推理产生的KV缓存,就能吃掉好几Gb的显存。传统模式下,这些缓存用过一次就扔,下次再推理,又要重新计算,既费算力又费显存。
而oS的激活记忆体系,说白了就是给KV缓存搞了个“智能管理系统”。它能做到两件事:
- 缓存复用:把高频出现的KV缓存(比如用户经常问的“大模型是什么”这类通用问题的缓存)存起来,下次再有用户问类似问题,直接调用现成的缓存,不用重新计算。这就像餐厅里的预制菜,不用每次都从零开始炒菜,节省大量时间和燃气。
- 动态压缩:对不常用的KV缓存,进行无损压缩,把显存占用率降下来。比如原本占10Gb的缓存,压缩后只占5Gb,省下的显存就能用来跑更多的推理任务,相当于一台机器当成两台用。
更关键的是,oS的这套体系不是孤立运行的,它和pd分离的硬件集群深度联动:prefill集群算出来的KV缓存,会直接传到oS的“记忆库”里,由oS统一调度,再分发给dede集群使用。这样一来,不仅解决了KV缓存的传输延迟问题,还从根源上减少了显存占用——这才是真正的“降本增效”。
2. 商汤大装置:给国产GpGpU“量身定制”调度方案
有了好的软件,还得有好的调度,让硬件的潜力发挥到极致。这就是商汤大装置的核心作用。
商汤在AI大模型领域摸爬滚打多年,最懂大模型推理的“脾气”。他们针对国产GpGpU的特性——比如显存带宽、算力架构和国际芯片不一样——做了三件关键优化:
- 批量调度优化:让prefill集群“吃饱喝足”,把多个用户的推理请求打包成批量任务,最大化利用算力,避免资源闲置。比如原本一次只能算10个用户的请求,优化后能算20个,效率直接翻倍。
- dede低延迟调度:给dede集群设计了“优先级调度”机制,确保用户的请求能被快速响应。比如把实时对话类的请求排在前面,避免出现“用户等半天”的情况,兼顾了吞吐率和延迟。
- 硬件适配调优:针对国产GpGpU的底层架构,修改推理框架的代码,解决了很多“兼容性问题”。比如有些国产芯片跑大模型时会出现“算力浪费”,商汤通过优化算子,让硬件的算力利用率提升了30%以上。
本章未完,点击下一页继续阅读。