{dede:global.cfg_webname/}

当前位置: 首页 > 科技 > 科技快讯 > 正文

微软打破Decoder-Only架构!大幅降低GPU内存需求

来源:互联网    时间:2024-05-12 11:28:44

  微软&清华最新研究,打破GPT系列开创的Decoder-Only架构——

  提出Decoder-Decoder新型架构,名为YOCO(You Only Cache Once)。

  YOCO仅缓存一次键值对,可大幅降低GPU内存需求,且保留全局注意力能力。

  一张图来看YOCO和标准Transformer的比较。

  在处理512K上下文长度时,标准Transformer内存使用是YOCO的6.4倍,预填充延迟是YOCO的30.3倍,而YOCO的吞吐量提升到标准Transformer的9.6倍。

  去年一张“大语言模型进化树”动图在学术圈疯转,模型架构还只有三大类:Decoder-Only、Encoder-Only、Encoder-Decoder。

  那么这个新出的Decoder-Decoder架构到底长啥样?

  嗯,如网友所言,要读的论文又增加了。

  话不多说,一起来看。

  YOCO整体架构设计如下,分为自解码器(Self-Decoder)和交叉解码器(Cross-Decoder)两部分。

  具体来说,YOCO由L个块堆叠而成,其中前L/2层是自解码器,其余模块是交叉解码器。

  自解码器利用高效自注意力(efficient self-attention)机制来获取键值(KV)缓存:

  接收输入序列的嵌入表示,并使用高效自注意力来生成中间向量表示;使用因果掩码(causal masking)保证解码的自回归特性;自解码器的输出用于生成全局KV缓存。

  而交叉解码器使用交叉注意力(cross-attention)来重用自解码器生成的共享KV缓存:

  在自解码器生成的KV缓存基础上进行堆叠,以获得最终的输出向量;同样使用因果掩码来维持自回归生成;允许交叉解码器层间高效地重用KV缓存,减少了对GPU内存的需求。

  总的来说,自解码器和交叉解码器的模块设计与Transformer的解码器层类似,包含交错注意力和前馈网络子层。不过,研究人员还进行了预RMSNorm、SwiGLU和分组查询注意力等改进。

  两部分之间的区别在于注意力模块。

  自解码器使用高效自注意力,如滑动窗口注意力(Sliding-Window Attention)或门控保留(gated retention)。

  而交叉解码器使用标准的多头交叉注意力,Query向量通过注意力与自解码器产生的全局键值缓存相关联。

  实验阶段,研究人员将YOCO模型与同体量的Transformer模型进行比较。

  分析维度有四个:语言建模评估、与Transformer比较的可扩展性、长上下文评估、推理优势。

  语言建模评估

  研究人员训练了一个3B参数的YOCO语言模型,并根据训练token数量(1T和1.6T)进行评估。

  在LM Eval Harness的多个下游任务上,YOCO与Transformer模型OpenLLaMA-3B-v2、StableLM-base-alpha-3B-v2、StableLM-3B-4E1T打得有来有回。

  可扩展性对比

  接着,研究人员在160M到13B参数规模范围内,分别训练了YOCO(门控保留和滑动窗口注意力版本)和Transformer语言模型。

  对比了它们在验证集上的语言模型损失,YOCO的表现与Transformer基本持平:

  结果证明YOCO在模型大小扩展方面具有很强的可扩展性。

  长上下文评估

  将3B的YOCO模型扩展到上下文为1M,在“大海捞针”等长序列的needle retrieval任务上,YOCO-3B-1M的准确率接近100%。

  在多针检索任务上,YOCO-3B-1M的性能优于一些超3B的Transformer模型:

  此外,YOCO模型在长序列上的NLL随着上下文长度的增加而一致下降,表明YOCO能够有效地利用长距离依赖信息进行语言建模:

  综上,可见YOCO在性能上完全不输Transformer,关键来看YOCO在推理效率上取得的显著提升。

  推理优势

  研究人员评估了YOCO在GPU内存占用、prefilling延迟、吞吐量和服务容量等方面的优势,评估上下文范围为32K至1M。

  如下图所示,与Transformer相比,YOCO大幅度降低了GPU内存占用,且YOCO的内存消耗随上下文长度增加,增长幅度很小。

  例如,在1M长度下,整体推理内存使用量仅为12.4GB,而传统的Transformer则占用了9.38倍的GPU内存。

  下面展示了token的KV缓存对GPU内存的占用情况。

  YOCO模型只缓存一层全局的键值对,因此与Transformer模型相比,它需要的内存约少了L(指模型的层数)倍。

  例如,YOCO模型可以使用1GB的GPU内存来处理128K token。而具有GQA的Transformer 65B大小模型,仅能支持1.6K token。

  也就是说,模型越大,YOCO可以节省更多。

  在预填充阶段,模型并行编码输入token。对于512K和1M长度的输入,Transformer分别需要大约180秒和300秒。Transformer的计算复杂度为O(N^2),处理长上下文需要大量的浮点运算操作。

  相比之下,YOCO的预填充时间为O(N),随序列长度线性增长。

  YOCO将Transformer的512K上下文预填充时间从180秒减少到不到6秒。

  预填充阶段可以在进入交叉解码器之前提前退出。因此,即使对于短上下文,预填充延迟的加速至少是两倍。例如,对于32K长度,YOCO比Transformer快2.87倍。

  吞吐量表示模型每秒可以处理多少个token,涵盖了预填充和生成时间。如下图所示,与Transformer相比,YOCO在不同上下文长度下实现了更高的吞吐量。

  以512K查询为例,Transformer的吞吐量为4.5 token/秒,而YOCO达到了43.1token/秒,即实现了9.6倍的加速。

  吞吐量提高的原因如前所述,YOCO减少了预填充所需的时间。其次,由于内存消耗减少,因此可以在推理时使用更大的批量大小,这也有助于提高吞吐量。

声明:来源非IT商业科技网的作品均转载自其它媒体,转载请尊重版权保留出处,一切法律责任自负。文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:342 4350 938@qq.com

频道精选
科技巨头视东南亚为下一件大事 彭博解析趋势

科技巨头视东南亚为下一件大事 彭博解析趋势

  全球科技巨头开始将东南亚视为下一件扩展市场的大事。 东南亚国家在几十年来屈居中国和日本之后,这个拥有6 75亿人口的地区正吸引比以
2024-05-12
继辛耘筹资扩充之后 广运送件拟自市场募集逾12.5亿元

继辛耘筹资扩充之后 广运送件拟自市场募集逾12.5亿元

  广运今年业绩可望呈现逐季攀高,同时,广运向金管会送件办理发行1万张的现增股,同时,拟发行6亿元的无担保可转换公司债,这两笔筹资案
2024-05-12
全球纯晶圆代工排名洗牌 中芯竟超车格罗方德及联电

全球纯晶圆代工排名洗牌 中芯竟超车格罗方德及联电

  被美国列入半导体出口管制黑名单的中国最大的代工芯片制造商中芯国际,本周公布2023年第1季的营收成功超过另外两家纯晶圆代工厂格罗方
2024-05-12
苹果CEO库克继任人选? 最好能再作10年

苹果CEO库克继任人选? 最好能再作10年

  苹果CEO库克即将达退休年纪,市场对于苹果CEO后继人选再次有不少讨论,其中现任营运总监威廉斯,以及掌理硬件工程业务的特纳斯都有可能
2024-05-12
2厂还不够! 彭博:日本熊本争取台积电设3厂

2厂还不够! 彭博:日本熊本争取台积电设3厂

  彭博披露,日本熊本县新知事木村敬表示,已准备好获得广泛的支持,以吸引台积电在当地设立第3座晶圆厂。  此前已传出台积电考虑在日
2024-05-12
社区理疗?银发康养?理疗行业新趋势,看小理家如何破局

社区理疗?银发康养?理疗行业新趋势,看小理家如何破局

  创新之道,源于真实需要。76岁的康奶奶,是一名典型的老年肩周炎患者。肩膀发冷、酸痛,有时痛症发作,就连胳膊都抬不起来。常去的专业
2024-05-11
小米MIX Flip折叠屏手机参数曝光 支持67W有线快充

小米MIX Flip折叠屏手机参数曝光 支持67W有线快充

  原标题:小米 MIX Flip 折叠屏手机参数曝光:1 5K 显示屏、4900mAh 电池  5 月 11 日消息,一款型号为2405CPX3DC的小米新机
2024-05-11

2017-2019 Copyright © IT商业科技网 备案许可证号粤ICP备2022153948号 豫公网安备110102003388号

紧急处理QQ:133 4673 445@qq.com