重磅!阿里巴巴开源自家首个MoE技术大模型:Qwen1.5-MoE-A2.7B,性能约等于70亿参数规模的大模型Mistral-7B

标签:#MoE##Qwen1.5-MoE##混合专家大模型##通义千问# 时间:2024/03/29 00:40:06 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
相关博客