DeepSeek开启2026:论文推动更大模型训练成本更低 | DeepSeek启动2026:论文显示推动大模型低成本训练

中国人工智能初创公司DeepSeek在2026年发布了一篇新技术论文,提出了一种重新思考基础AI模型训练架构的方法——“流形约束超连接(mHC)”。该方法旨在提高模型的成本效益,帮助公司在与资金更充裕、计算能力更强的美国竞争对手的竞争中保持优势。这也反映了中国AI企业日益开放和合作的研发氛围,越来越多的研究成果被公开发表。

在这篇由19位DeepSeek研究人员合作完成的论文中,团队测试了mHC在拥有30亿、90亿和270亿参数的模型上的表现,结果显示该方法在不显著增加计算负担的情况下实现了良好的扩展性。研究团队表示,实验证明mHC能有效支持稳定的大规模训练,并优于传统的超连接(HC)技术。

via SCMP Full Text Feed
 
 
Back to Top