MistralAI的混合专家大模型Mistral-7B×8-MoE详细介绍,效果超过LLaMA2-70B和GPT-3.5,推理速度快6倍

标签:#Mistral-7B×8-MoE##MistralAI##MoE##混合专家模型# 时间:2023/12/11 23:24:12 作者:小木

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
相关博客