标签:AI,大模型,量化,KL散度,技术分析 时间:2023-11-23T16:41:20
在AI领域,量化是一种常用的技术,它通过减少模型中参数的位数来压缩模型大小,从而减少存储和计算需求。然而,量化也会导致模型精度的损失。本文将通过KL散度测试,探讨量化对大型AI模型的实际影响。
量化通常使用的指标是困惑度(perplexity),但这个指标并不详尽,只能大致反映模型对选定样本的预测能力。因此,我们使用KL散度来比较不同量化级别的模型概率相似性。
以下是Mistral 7b模型在不同量化级别下的KL散度变化:
这些数据显示,随着量化级别的降低,模型的概率相似性损失增加。
如果我们专注于那些受量化影响最大的Token,情况会变得更加明显。例如,对于顶部约5%受量化影响最大的Token,量化级别越低,它们的KL散度差异越大。
我们还对13b模型进行了类似的测试。结果表明,尽管参数量更多的模型受量化影响较小,但即便是对于13b模型,极端量化的影响仍然相当明显。
例如,13b模型的Q2_K量化级别平均KL散度为0.058,而Mistral 7b模型的同一量化级别为0.082。
通过KL散度测试,我们可以更客观地理解量化对大型AI模型的实际影响。这些测试结果有助于我们在选择量化级别时做出更明智的决策,并对模型性能有更准确的预期。
以下是70B模型在不同量化级别下的困惑度表格:
这些数据表明,直到5位量化,甚至往往是4位量化,模型性能都能保持良好,但之后性能下降会变得非常明显。
量化确实会对大型AI模型的性能产生影响,但通过合理选择量化级别和参数量,我们仍然可以在保证性能的同时,实现模型的压缩和优化。希望这些测试能为AI领域的研究者和开发者提供有价值的参考。
2022年必读的AI论文——100个AI领域被引最多的论文分析
2022年被引次数最多的AI论文列表
生成式AI平台的玩家都有哪些?
斯坦福2022年度AI指数报告简介及下载链接
亚马逊最新发布Feature Store简介
导致Sam离职风波背后的OpenAI最近的技术突破——Q*项目信息汇总
DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?
大模型泛化能力详解:大模型泛化能力分类、泛化能力来源和泛化研究的方向
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
需要多少GPU显存才能运行预训练大语言模型?大语言模型参数规模与显存大小的关系估算方法~
又一个国产开源大模型发布:前腾讯创始人创业公司元象发布XVERSE-13B,超过Baichuan-13B,与ChatGLM2-12B齐平!但免费商用授权!
国产开源大模型再添重要玩家:BAAI发布开源可商用大模型Aquila
目前业界支持中文大语言模型开源和商用许可协议总结
百度文心一言发布,功能尝鲜概览
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介