标签:计算机科学,人工智能,大模型,GPT-4,语言模型 时间:2023-10-18T23:37:21
近期有讨论指出,自建小型语言模型(LLMs)的成本可能远低于运行GPT-4的成本。本文将深入探讨这一观点,分析其成本构成,并讨论在特定任务下,选择自建模型的可能优势和劣势。
首先,我们假设你使用的是一个完整的上下文窗口。对于GPT-4,每1000个令牌的成本大约为0.30美元(8192个上下文窗口的提示令牌为0.03美元/1000个,补全令牌为0.06美元/1000个)。
自建模型的主要成本在于GPU服务器。假设你使用的是每小时2美元的LambdaAPI H100服务器。我曾测试过vLLM与Falcon-7B的性能,全上下文窗口在4090上大约为44.1令牌/秒。H100的速度会更快,但我们使用这个数字。这意味着每小时158,760个令牌,成本为(2/小时) / (158,760个令牌/小时) = ~0.013/1000个令牌。即使在我设置的10%效率下,你的成本也只有GPT-4的约30%。
如果你有一个可以对Mistral-7B等模型进行微调的狭窄任务,你应该强烈考虑这条路线。但是,这种方法也有其缺点:按使用付费在扩展时可能更有效;我测试的模型只有2k的上下文窗口,但它也不是我测试过的最高效的。像Mistral这样的模型可能会超过其成本/令牌的性能;部分成本节省可能会被维护成本抵消。
总的来说,自建小型语言模型在成本上可能具有优势,特别是在特定任务下,自建模型可能更具成本效益。然而,这也取决于具体的任务需求和资源配置,因此在实际决策时需要综合考虑各种因素。
2022年全球最大的10家数据处理相关的创业公司
斯坦福2022年度AI指数报告简介及下载链接
内容生成方向的人工智能企业
吴恩达的LandingAI究竟是一家什么样的创业公司
人工智能初创企业Hugging Face是什么样的企业——HuggingFace简介
构建人工智能应用的开发者指南
工业蒸汽量预测-特征工程
一张图看全深度学习中下层软硬件体系结构
亚马逊最新发布Feature Store简介
Scikit-Learn最新更新简介
导致Sam离职风波背后的OpenAI最近的技术突破——Q*项目信息汇总
DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?
大模型泛化能力详解:大模型泛化能力分类、泛化能力来源和泛化研究的方向
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
需要多少GPU显存才能运行预训练大语言模型?大语言模型参数规模与显存大小的关系估算方法~
又一个国产开源大模型发布:前腾讯创始人创业公司元象发布XVERSE-13B,超过Baichuan-13B,与ChatGLM2-12B齐平!但免费商用授权!
国产开源大模型再添重要玩家:BAAI发布开源可商用大模型Aquila
目前业界支持中文大语言模型开源和商用许可协议总结
百度文心一言发布,功能尝鲜概览
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
使用R语言进行K-means聚类并分析结果
深度学习技巧之Early Stopping(早停法)
H5文件简介和使用
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介