标签:LLAMA,大语言模型,基准测试,3090显卡 时间:2024-04-23T14:26:06
近日,Meta发布了LLAMA 3 70B指令微调模型,该模型经过指令微调,在通用自然语言任务上取得了不错的效果。本文对该模型在单个NVIDIA RTX 3090显卡上进行了速度基准测试,以评估其实际使用性能。
在24GB显存限制下,目前性能最好的模型是使用IQ2量化方案的Meta-Llama-3-70B-Instruct-IQ2_XS.gguf,具体参数如下:
Meta-Llama-3-70B-Instruct-IQ2_XS.gguf
使用该模型,在3090上可以达到每秒生成12.43个token的速度,对于70B的大模型来说已经非常惊人。
需要注意的是,如果将上下文长度(CTX)提高到8K,并启用全量卸载,速度会大幅下降。这可能是因为GPU内存不足导致的。如果想使用8K的上下文,可以尝试降低GPU层数,但速度仍然会有所下降。例如:
除了IQ2,我还测试了其他一些量化方案,如使用2.4 bpw的Llama-3-70B-Instruct-exl2模型:
Llama-3-70B-Instruct-exl2
使用exllama 2量化,最高速度可达4.17 t/s;使用HF版exllama 2量化,速度约为3.6 t/s。虽然也不算慢,但仍比IQ2慢了3倍左右,而且GPU占用很高。
在实际使用中,IQ2_XS.gguf和exl2 2.4bpw生成的回复质量差异并不明显,尽管它们会使用不同的语言风格(例如在确定性设置下重写文本时)。
此外,我还尝试了Meta-Llama-3-70B-Instruct.Q3_K_M.gguf模型,使用60层和4K上下文,速度仅有0.65 t/s,性能太差,就没有继续测试了。
Meta-Llama-3-70B-Instruct.Q3_K_M.gguf
IQ3_XS模型则完全无法使用,要么卡死,要么只输出特殊token。
IQ3_XS
总的来说,Meta的LLAMA 3 70B指令微调模型表现非常出色,灵活性和适应性都很强,同时在安全性方面也做了一定的限制(不像之前LLAMA 2的微调版那样过于严格,以至于一有更好的微调版本出现,大家就都不用它了)。微调模型很难超越LLAMA 3 70B的性能,可以看出Meta在这方面下了不少功夫。
其他一些讨论要点:
以上就是本次 LLAMA 3 70B 模型单卡性能测试的全部内容,希望对大家选择合适的模型和参数有所帮助。Meta在大模型优化方面的成果有目共睹,未来也让我们拭目以待。
重磅!MetaAI开源4050亿参数的大语言模型Llama3.1-405B模型!多项评测结果超越GPT-4o,与Claude-3.5 Sonnet平分秋色!
Meta即将推出开源的CodeLLaMA:一种新的编程AI模型
重磅!Meta发布LLaMA2,最高700亿参数,在2万亿tokens上训练,各项得分远超第一代LLaMA~完全免费可商用!
抛弃RLHF?MetaAI发布最新大语言模型训练方法:LIMA——仅使用Prompts-Response来微调大模型
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
阿里巴巴开源第二代大语言模型Qwen2系列,最高参数规模700亿,评测结果位列开源模型第一,超过了Meta开源的Llama3-70B!
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
文本理解与代码补全都很强!Salesforce开源支持8K上下文输入的大语言模型XGen-7B!
一张图总结大语言模型的技术分类、现状和开源情况
国产开源中文大语言模型再添重磅玩家:清华大学NLP实验室发布开源可商用大语言模型CPM-Bee
tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?
Falcon-40B:截止目前最强大的开源大语言模型,超越MetaAI的LLaMA-65B的开源大语言模型
AI大模型领域的热门技术——Embedding入门介绍以及为什么Embedding在大语言模型中很重要
大语言模型训练之前,数据集的处理步骤包含哪些?以LLaMA模型的数据处理pipeline(CCNet)为例
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介