仓库
暂未加入任何公有仓库

TA 关注的仓库 (1)

    Watch ustbakerue/Tencent-Hunyuan-Large forked from 腾讯开源/Tencent-Hunyuan-Large

    随着模型规模的扩大,如何在保持高性能的同时优化资源消耗成为一个关键挑战。为了应对这一挑战,我们研究了混合专家(MoE)模型,当前亮相的Hunyuan-Large(Hunyuan-MoE-A50B)模型,这是目前业界待开源的基于Transformer的最大MoE模型,拥有3890亿总参数和520亿激活参数。

    最近更新: 28天前