每日经济新闻 2025-02-12 14:45:28
每经北京2月11日电(记者杨昕怡)豆包大模型团队今日宣布,团队提出了全新的稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家模型)推理时高额的访存问题,推理速度较MoE架构提升2~6倍,推理成本最高可降低83%。该研究还揭示了新架构的Scaling Law(规模定律),证明其不仅具备优异的Scaling特性,更在性能上超越了MoE。
如需转载请与《每日经济新闻》报社联系。
未经《每日经济新闻》报社授权,严禁转载或镜像,违者必究。
读者热线:4008890008
特别提醒:如果我们使用了您的图片,请作者与本站联系索取稿酬。如您不希望作品出现在本站,可联系我们要求撤下您的作品。
欢迎关注每日经济新闻APP