标签:Stable AI,大语言模型,多语言模型,Stable LM 2 12B,开源模型 时间:2024-04-12T23:15:54
近日,Stable AI发布了旗下Stable LM 2语言模型系列的最新成员:一个120亿参数的基础模型和一个经过指令调优的变体模型,它们都在包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语在内的7种语言上,使用2万亿token进行了训练。这一中型模型在性能表现、计算效率、内存需求和推理速度之间取得了良好的平衡,延续了此前发布的Stable LM 2 1.6B模型的技术框架。随着这一版本的发布,Stable AI进一步扩展了其模型产品矩阵,为开发者提供了一个透明且强大的工具,助力其在AI语言技术领域进行创新。
同时,Stable AI还发布了Stable LM 2 1.6B模型的新版本,在保持极低系统需求的同时,进一步增强了该模型在上述7种语言上的对话能力。此前发布的Stable LM 2 1.6B在Open LLM Leaderboard上已经取得了领先的位置,展现出其卓越的性能。
我们将Stable LM 2 12B与其他流行的强大语言模型进行了比较,如下表所示:
可以看出,Stable LM 2 12B在各项评测中的表现都非常亮眼,尤其作为一个开源模型,展现出了媲美商业模型的能力,而其计算资源需求却要低得多。
通过此次发布,Stable AI将Stable LM 2模型系列扩展到了120亿参数的量级,提供了一个开放透明且性能卓越的模型,有望帮助开发者和企业在保留对数据的完全控制的同时,持续推动AI语言技术的发展。
如果你对Stable LM 2 12B的商业应用感兴趣,可以访问Stability AI的官网或联系他们的商务团队以了解更多信息。你也可以在Hugging Face上直接试用Stable LM 2 12B模型。
阿里巴巴开源第二代大语言模型Qwen2系列,最高参数规模700亿,评测结果位列开源模型第一,超过了Meta开源的Llama3-70B!
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
文本理解与代码补全都很强!Salesforce开源支持8K上下文输入的大语言模型XGen-7B!
一张图总结大语言模型的技术分类、现状和开源情况
国产开源中文大语言模型再添重磅玩家:清华大学NLP实验室发布开源可商用大语言模型CPM-Bee
tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?
Falcon-40B:截止目前最强大的开源大语言模型,超越MetaAI的LLaMA-65B的开源大语言模型
AI大模型领域的热门技术——Embedding入门介绍以及为什么Embedding在大语言模型中很重要
大语言模型训练之前,数据集的处理步骤包含哪些?以LLaMA模型的数据处理pipeline(CCNet)为例
最新发布!截止目前最强大的最高支持65k输入的开源可商用AI大模型:MPT-7B!
重磅!来自Google内部AI研究人员的焦虑:We Have No Moat And neither does OpenAI
5月3日,2个重磅开源的AI模型发布:Replit代码补全大模型和LLaMA复刻版OpenLLaMA发布
2023年4月中旬值得关注的几个AI模型:Dollly2、MiniGPT-4、LLaVA、DINOv2
OpenAI开源最新的3D物体生成预训练模型——Point-E
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介