MistralAI开源全球首个(可能)基于MoE(Mixture of Experts)技术的大模型:预训练下载链接全球直发,但实测表现似乎一般!

标签:#Mistral-7B##Mistral-8x7B-MoE##Mistral-AI##MoE##混合专家# 时间:2023/12/09 20:47:46 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送