DeepSeekMoE 145B Base
发布时间: 2024-01-11
不支持
4K tokens
基础大模型
2024-01-11
288GB
输入不支持
输入不支持
输入不支持
输入不支持
输入不支持
输出不支持
输出不支持
输出不支持
输出不支持
输出不支持
DeepSeekMoE是幻方量化旗下大模型企业DeepSeek开源的一个混合专家大模型,也是目前已知的中国第一个开源的MoE大模型。
DeepSeekMoE 145B Base是其1446亿参数的版本。
关注DataLearnerAI微信公众号,接受最新大模型资讯