模型详细情况和参数
StableLM 2 Zephyr-1.6B是由StabilityAI发布的一个16亿参数规模的大语言模型,是在StableLM2-1.6B基础上做对齐训练得到的,采用的是Zephyr 7B β一样的方法,因此用的是Zephyr名称。相比基座模型,这个版本的模型各方面都有所提升。
相比较常规的大语言模型,这个模型参数仅16亿,可以在移动端运行。但是它的性能效果与几个月前70亿参数规模差不多。
该模型的主要特点如下:
官方公布了StableLM2-1.6B在不同评测任务上的评测结果
MT-Bench的评测结果如下:
模型 | 参数规模 | MT-Bench |
---|---|---|
Mistral-7B-Instruct-v0.2 | 70亿 | 7.61 |
Llama2-Chat | 700亿 | 6.86 |
MPT-30B-Chat | 300亿 | 6.39 |
stablelm-zephyr-3b | 30亿 | 6.64 |
stablelm-2-zephyr-1_6b | 16亿 | 5.42 |
Falcon-40B-Instruct | 400亿 | 5.17 |
Qwen-1.8B-Chat | 18亿 | 4.95 |
dolphin-2.6-phi-2 | 27亿 | 4.93 |
phi-2 | 27亿 | 4.29 |
TinyLlama-1.1B-Chat-v1.0 | 11亿 | 3.46 |
不过这个模型非常有意思的是如果个人可以非商用使用,用于科研和个人目的。但是如果你要商用,但是年收入低于100万美元或者月活低于100万用户,即便是0,只要商用也要加入StabilityAI的会员计划,每个月20美元。超过这个规模的商用就需要与官方联系签合同。也就是说,这不是一个免费商用授权的大模型。