月之暗面开源了一个全新的160亿参数规模的MoE大语言模型Moonlight-16B:其训练算力仅需业界主流的一半

标签:#MoE大模型##MoE架构##Moonlight-16B##开源大模型# 时间:2025/02/23 21:08:11 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送