{dede:global.cfg_webname/}

当前位置: 首页 > 科技 > 科技快讯 > 正文

昆仑万维开源2千亿稀疏大模型天工MoE 全球首创能用4090推理

来源:互联网    时间:2024-06-04 10:22:01

  2024年6月3日,昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE大模型,也是首个支持用单台 4090 服务器推理的开源千亿 MoE大模型。

  开源地址:

  Skywork-MoE 的模型权重、技术报告完全开源,免费商用,无需申请:

  模型架构

  本次开源的 Skywork-MoE 模型隶属于天工 3.0 的研发模型系列,是其中的中档大小模型(Skywork-MoE-Medium),模型的总参数量为 146B,激活参数量 22B,共有 16 个 Expert,每个 Expert 大小为 13B,每次激活其中的 2 个 Expert。

  天工 3.0 还训练了 75B (Skywork-MoE-Small) 和 400B (Skywork-MoE-Large)两档 MoE 模型,并不在此次开源之列。

  模型能力

  我们基于目前各大主流模型评测榜单评测了 Skywork-MoE,在相同的激活参数量 20B(推理计算量)下,Skywork-MoE 能力在行业前列,接近 70B 的 Dense 模型。使得模型的推理成本有近 3 倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2 的总参数大小要小 1/3.用更小的参数规模做到了相近的能力。

  技术创新

  为了解决 MoE 模型训练困难,泛化性能差的问题,相较于 Mixtral-MoE, Skywork-MoE 设计了两种训练优化算法:

  1. Gating Logits 归一化操作

  我们在 Gating Layer 的 token 分发逻辑处新增了一个 normalization 操作,使得 Gating Layer 的参数学习更加趋向于被选中的 top-2 experts,增加 MoE 模型对于 top-2 的置信度:

  2. 自适应的 Aux Loss

  有别于传统的固定系数(固定超参)的 aux loss, 我们在 MoE 训练的不同阶段让模型自适应的选择合适的 aux loss 超参系数,从而让 Drop Token Rate 保持在合适的区间内,既能做到 expert 分发的平衡,又能让 expert 学习具备差异化,从而提升模型整体的性能和泛化水平。在 MoE 训练的前期,由于参数学习不到位,导致 Drop Token Rate 太高(token 分布差异太大),此时需要较大的 aux loss 帮助 token load balance;在 MoE 训练的后期,我们希望 Expert 之间仍保证一定的区分度,避免 Gating 倾向为随机分发 Token,因此需要较低的 aux loss 降低纠偏。

  训练 Infra

  如何对 MoE 模型高效的进行大规模分布式训练是一个有难度的挑战,目前社区还没有一个最佳实践。Skywork-MoE 提出了两个重要的并行优化设计,从而在千卡集群上实现了 MFU 38% 的训练吞吐,其中 MFU 以 22B 的激活参数计算理论计算量。

  1. Expert Data Parallel

  区别于 Megatron-LM 社区已有的 EP(Expert Parallel)和 ETP(Expert Tensor Parallel)设计,我们提出了一种称之为 Expert Data Parallel 的并行设计方案,这种并行方案可以在 Expert 数量较小时仍能高效的切分模型,对 Expert 引入的 all2all 通信也可以最大程度的优化和掩盖。相较于 EP 对 GPU 数量的限制和 ETP 在千卡集群上的低效, EDP 可以较好的解决大规模分布式训练 MoE 的并行痛点,同时 EDP 的设计简单、鲁棒、易扩展,可以较快的实现和验证。

  一个最简单的 EDP 的例子,两卡情况下 TP = 2. EP = 2. 其中 Attention 部分采用 Tensor Parallel , Expert 部分采用 Expert Parallel

  2. 非均匀切分流水并行

  由于 first stage 的 Embedding 计算和 last stage 的 Loss 计算,以及 Pipeline Buffer 的存在, 流水并行下均匀切分 Layer 时的各 stage 计算负载和显存负载均有较明显的不均衡情况。我们提出了非均匀的流水并行切分和重计算 Layer 分配方式,使得总体的计算/显存负载更均衡,约有 10% 左右的端到端训练吞吐提升。

  比较均匀切分和非均匀切分下的流水并行气泡:对于一个 24 层 Layer 的 LLM, (a) 是均匀切分成 4 个 stage,每个 stage  的 layer 数量是:[6. 6. 6. 6].(b) 是经过优化后的非均匀切分方式,切成 5 个 stage, 每个 stage 的 layer 数量是:[5. 5. 5. 5. 4] , 在中间流水打满的阶段,非均匀切分的气泡更低。

  MoE Know-how

  此外,Skywork-MoE 还通过一系列基于 Scaling Laws 的实验,探究哪些约束会影响 Upcycling 和 From Scratch 训练 MoE 模型的好坏。

  一个可以遵循的经验规则是:如果训练 MoE 模型的 FLOPs 是训练 Dense 模型的 2 倍以上,那么选择 from Scratch 训练 MoE 会更好,否则的话,选择 Upcycling 训练 MoE 可以明显减少训练成本。

  4090 推理

  Skywork-MoE 是目前能在 8x4090 服务器上推理的最大的开源 MoE 模型。8x4090 服务器一共有 192GB 的 GPU 显存,在 FP8 量化下(weight 占用 146GB),使用我们首创的非均匀 Tensor Parallel 并行推理方式,Skywork-MoE 可以在合适的 batch size 内达到 2200 tokens/s 的吞吐。天工团队完整开源了相关的推理框架代码和安装环境,详情参见:https://github.com/SkyworkAI/Skywork-MoE

  结语

  我们希望本次开源的 Skywork-MoE 模型、技术报告和相关的实验结果可以给开源社区贡献更多的 MoE 训练经验和 Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等各方面, 探索用更低的训练推理成本训更大更强的模型,在通往 AGI 的道路上贡献一点力量。

声明:来源非IT商业科技网的作品均转载自其它媒体,转载请尊重版权保留出处,一切法律责任自负。文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:342 4350 938@qq.com

频道精选
昆仑万维开源2千亿稀疏大模型天工MoE 全球首创能用4090推理

昆仑万维开源2千亿稀疏大模型天工MoE 全球首创能用4090推理

  2024年6月3日,昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 基于之前昆仑万
2024-06-04
赋能“智改数转” 360织语一体化智能协同工作平台亮相青岛大数据春季论坛

赋能“智改数转” 360织语一体化智能协同工作平台亮相青岛大数据春季论坛

  5月31日下午,青岛市大数据发展促进会第二届会员代表大会第四次会议暨2024促数据要素化 筑新质生产力大数据春季论坛在市级机关会议中
2024-06-04
做中国人自己的打印机丨深耕20年 汉印翻开打印行业新篇章

做中国人自己的打印机丨深耕20年 汉印翻开打印行业新篇章

  说起消费升级,很多人会想起几年前突然冒出的各种新兴品牌,这些品牌涵盖了衣食住行的各个角落,食品饮料、鞋服饰品、文娱玩具、家具家电
2024-06-04
福特欲从中国取经 打造价格亲民的电动汽车

福特欲从中国取经 打造价格亲民的电动汽车

  6 月 4 日消息,福特汽车首席执行官吉姆・法利 (Jim Farley) 希望效仿当年亨利・福特推出 Model T 的壮举,为美国大众提供价
2024-06-04
黄仁勋、苏姿丰、季辛格全跑来中国台湾 韩媒忧三星变AI边缘人

黄仁勋、苏姿丰、季辛格全跑来中国台湾 韩媒忧三星变AI边缘人

  2024台北电脑展开幕之前,英伟达CEO黄仁勋就提前抵台,宴请并会晤供应链伙伴,而英伟达最坚实的伙伴非台积电莫属; AMD首席执行官苏姿
2024-06-04
微软传削减Azure云端人力、加码投资AI与量子运算

微软传削减Azure云端人力、加码投资AI与量子运算

  Thomson Reuters周一引述Business Insider报道,知情人士透露,微软 Azure云端部门正裁员1500人。  Business Insider周一报导,
2024-06-04
中国造车新势力5月销量“淡季不淡”:蔚来创历史新高 小鹏、哪吒重返“万辆俱乐部”

中国造车新势力5月销量“淡季不淡”:蔚来创历史新高 小鹏、哪吒重返“万辆俱乐部”

  中国5月传统淡季并未阻滞造车新势力的表现,造车新势力上周六相继发布5月交车数据,除了蔚来汽车刷新月度交付纪录,理想汽车时隔三个月
2024-06-04
光宝首度展示GB200 NVL72 专为Blackwell打造高效电源系统

光宝首度展示GB200 NVL72 专为Blackwell打造高效电源系统

  电源厂光宝科参展 COMPUTEX 首次展示英伟达NVIDIA GB200 NVL72 专为 Blackwell 打造的高效电源系统,提供高密度的电源解决方案,
2024-06-04
传谷歌又裁员 此回瞄准云端部门至少100人

传谷歌又裁员 此回瞄准云端部门至少100人

  《CNBC》周一报道,Alphabet旗下的Google将解雇其云端部门多个团队,至少100名员工。  《CNBC》引述内部信件称,Google 将销售、运
2024-06-04
重塑购买力 用AI实现真正的用户链接

重塑购买力 用AI实现真正的用户链接

  2024有赞春季发布会在北京举办,这次大会的主题是"利润增长‘AI"。顾名思义,和利润增长有关,和AI有关。  大会现场,白鸦公布
2024-06-04

2017-2019 Copyright © IT商业科技网 备案许可证号粤ICP备2022153948号 豫公网安备110102003388号

紧急处理QQ:133 4673 445@qq.com