标签:AI,大模型,英特尔Gaudi2,LLM排行榜,性能优化 时间:2023-11-26T21:05:20
英特尔Gaudi2 AI加速器由Habana Labs开发,旨在加速大型语言模型(LLM)的训练和推理过程。Gaudi2拥有96GB的集成内存,可通过英特尔开发者云或Supermicro和IEI的现场基础设施提供服务。
为了开始监督式微调,我们选择了最新的mistralai/Mistral-7B-v0.1 Hugging Face作为基础LLM模型,因为它具有强大的基准测试结果,并且在Apache 2.0下商业友好。我们选用了Hugging Face上最新的高质量指令数据集Open-Orca/SlimOrca,并利用Intel Extension for Transformers提供的微调管道,配合DeepSpeed ZeRO-2进行训练。
我们的模型在open_llm_leaderboard上表现出色,该排行榜使用Eleuther AI语言模型评估工具,是一个统一的框架,用于在大量不同的评估任务上测试生成语言模型。我们的模型在7B大小的LLM排行榜上名列第一。
我们很高兴将NeuralChat这一商业友好的7B聊天模型发布给LLM社区。该模型在典型的生成语言模型基准测试中表现优于原始基础模型。我们期望NeuralChat能够帮助推动7B聊天模型部署的极限,并激励更多的研究人员和开发者开放他们的LLM。
如果您觉得这个项目有用,请给Intel Extension for Transformers仓库点一个星星⭐。我们也欢迎您创建拉取请求或提交问题或疑问到仓库。
参考链接:
2022年必读的AI论文——100个AI领域被引最多的论文分析
2022年被引次数最多的AI论文列表
生成式AI平台的玩家都有哪些?
斯坦福2022年度AI指数报告简介及下载链接
亚马逊最新发布Feature Store简介
导致Sam离职风波背后的OpenAI最近的技术突破——Q*项目信息汇总
DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?
大模型泛化能力详解:大模型泛化能力分类、泛化能力来源和泛化研究的方向
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
需要多少GPU显存才能运行预训练大语言模型?大语言模型参数规模与显存大小的关系估算方法~
又一个国产开源大模型发布:前腾讯创始人创业公司元象发布XVERSE-13B,超过Baichuan-13B,与ChatGLM2-12B齐平!但免费商用授权!
国产开源大模型再添重要玩家:BAAI发布开源可商用大模型Aquila
目前业界支持中文大语言模型开源和商用许可协议总结
百度文心一言发布,功能尝鲜概览
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介