St

Stable LM Zephyr 3B

聊天大模型

Stable LM Zephyr 3B

发布时间: 2023-12-07

模型参数(Parameters)
30.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

聊天大模型

发布时间

2023-12-07

模型预文件大小

6GB

开源和体验地址

代码开源状态
预训练权重开源
开源不可商用 - 不可以商用
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Stable LM Zephyr 3B模型在各大评测榜单的评分

发布机构

模型介绍

Stable LM团队推出了Zephyr 3B,这是一个具有30亿参数的新型LLM,旨在为边缘设备提供强大而高效的语言处理能力。本文将深入探讨Stable LM Zephyr 3B的技术特性、训练洞察、模型性能以及其在多样化应用中的潜力。

Stable LM Zephyr 3B的核心特性

轻量级设计

Stable LM Zephyr 3B是一个优化过的模型,其参数数量为30亿,相比70亿参数的模型减小了60%。这种轻量级设计使得Zephyr 3B能够在各种设备上提供准确、响应迅速的输出,而不需要高端硬件支持。

训练洞察

Zephyr 3B的开发重点在于创建一个在文本生成方面表现出色的模型,并且与人类偏好保持一致。模型的训练包括两个主要步骤:首先,在多个指令数据集上进行监督式微调,这些数据集包括UltraChat、MetaMathQA、Evol Wizard Dataset和Capybara Dataset;其次,使用Direct Preference Optimization (DPO)算法与UltraFeedback数据集进行对齐,该数据集由OpenBMB研究小组提供,包含64,000个提示和相应的模型响应。

模型性能

在MT Bench和AlpacaEval等平台上的基准测试中,Stable LM Zephyr 3B展现出了生成上下文相关、连贯且语言准确的文本的卓越能力。与Falcon-4b-Instruct、WizardLM-13B-v1、Llama-2-70b-chat和Claude-V1等更大的模型相比,Zephyr 3B的性能具有竞争力。MT-Bench Score通过LLM对开放式问题进行评估,而AlpacaEval则侧重于模型遵循一般用户指令的能力。

多样化应用

Stable LM Zephyr 3B是一个轻量级但精确的模型,能够有效、准确地处理多种语言任务。它在指导性和问答型任务中得到了加强,足以应对各种复杂应用,从创作创意内容如文案撰写和摘要生成,到辅助开发教学设计和内容个性化。此外,该模型还能够基于输入数据提供强大而有洞察力的分析。所有这些都在保持其高效的30亿参数大小的同时完成,使其能够在缺乏专用高端系统计算能力的设备上使用。

商业应用前景

虽然Stable LM Zephyr 3B是一个非商业性许可的模型,但对于那些希望将其用于商业产品或目的的企业和开发者,Stable LM团队提供了联系方式以获取更多信息。同时,通过订阅新闻通讯、关注Twitter、Instagram、LinkedIn和加入Discord社区,可以持续关注Stable LM的最新进展。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat