标签:人工智能,大型语言模型,企业AI,高效训练,开源 时间:2024-04-25T15:20:31
大型语言模型(LLM)已经在各个领域展现出了强大的能力,但训练和推理成本高昂一直是制约其在企业级应用中大规模部署的主要障碍。为了解决这一问题,Snowflake公司的AI研究团队推出了一款名为Arctic的顶级企业级LLM,它在保持出色的企业智能能力的同时,极大降低了训练和推理成本,并完全开源。
Arctic模型在编码、SQL生成和指令跟踪等关键企业基准测试中表现出色,甚至超过了那些使用更高计算预算训练的开源模型。它为Snowflake客户提供了以低成本创建高质量定制模型的新基准。
Arctic采用了创新的Dense-MoE混合架构,将一个10B参数的密集Transformer模型与一个128x3.66B参数的MoE MLP模块相结合,总参数量达到480B,但只有17B参数用于实际计算。这种设计基于以下三个关键洞见:
更多但精简的专家和选择方式:Arctic使用了128个细粒度专家和Top-2门控机制,从480B参数中选择17B参数用于计算,显著提高了模型容量和灵活性。
架构与系统协同设计:通过将密集Transformer与残差MoE模块相结合,Arctic能够在训练过程中隐藏通信开销,提高训练效率。
面向企业的动态数据课程:Arctic采用了三阶段动态数据课程,先学习通用技能,后期侧重企业专用技能,有效提升了企业智能能力。
除了训练效率之外,Arctic在推理效率方面也有突破性的进展。在小批量推理时,Arctic由于活跃参数少,内存带宽需求低,可实现高吞吐率。而在大批量推理时,Arctic的计算需求较低,可通过多节点并行推理实现高吞吐率。Snowflake与NVIDIA等合作伙伴密切合作,优化Arctic在各种场景下的推理性能。
Arctic不仅开源了模型权重和代码,更重要的是,Snowflake公开分享了Arctic背后的研究见解和数据处理流程,为开源社区做出了重要贡献。
Snowflake发布了一本详细的”烹饪书”,介绍了Arctic模型的各个方面,包括预训练、微调、推理、评估、建模、数据、系统和基础设施等,分享了他们在探索MoE架构、数据组合、评估方法等方面的宝贵经验。该”烹饪书”旨在加速任何人构建世界级MoE模型的学习过程。
此外,Snowflake还在Apache 2.0许可下发布了Arctic的模型检查点和LoRA微调管道,并与NVIDIA等合作伙伴合作开发Arctic的推理实现,以支持交互式和大批量推理。
Arctic代表了大型语言模型在企业级应用中的一个重要里程碑。它通过创新的架构设计和训练策略,实现了高效的训练和推理,同时保持了顶级的企业智能能力。更重要的是,Snowflake通过开源Arctic及其背后的研究见解,为推动开源社区的发展做出了重大贡献。我们有理由相信,在开源社区的共同努力下,面向企业的高效智能大型语言模型将会有更加广阔的发展前景。
2022年全球最大的10家数据处理相关的创业公司
斯坦福2022年度AI指数报告简介及下载链接
内容生成方向的人工智能企业
吴恩达的LandingAI究竟是一家什么样的创业公司
人工智能初创企业Hugging Face是什么样的企业——HuggingFace简介
构建人工智能应用的开发者指南
工业蒸汽量预测-特征工程
一张图看全深度学习中下层软硬件体系结构
亚马逊最新发布Feature Store简介
Scikit-Learn最新更新简介
大模型领域最著名开源模型小羊驼Vicuna升级!Vicuna发布1.5版本,可以免费商用了!最高支持16K上下文!
开源界最新力作!230万篇arXiv的论文标题和摘要的所有embeddings向量数据集免费开放!
OpenAI开源GPT-2的子词标记化神器——tiktoken,一个超级快的(Byte Pair Encoder,BPE)字节对编码Python库
重磅!Meta将PyTorch移交给Linux基金会!
全球主要开源组织概述
Bloomberg发布的最新的memray——Python内存分析器是什么?
全球最大(最挣钱)的十大开源企业
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
深度学习技巧之Early Stopping(早停法)
H5文件简介和使用
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介