标签:大模型,GPT-4,LLM,自我托管,成本比较 时间:2023-10-20T22:32:08
随着大型模型如GPT-4的日益普及,不少人对其成本表示关注。另一方面,自主托管的小型LLM(如Falcon-7B和Mistral-7B)在某些场景中也展现出较高的性价比。本文旨在对比这两种模型的成本,并为用户提供决策时的参考信息。
GPT-4的成本计算相对直观,以一个完整的上下文窗口为例,其成本大约为0.30/1k tokens。其中,8192的上下文窗口的提示tokens需要0.03/1k,完成tokens需要$0.06/1k。
首先,自主托管的主要成本在于GPU服务器。假设我们使用的是@LambdaAPI的H100服务器,小时费用为$2。之前的测试中,使用Falcon-7B模型,在4090上的性能大约是44.1 tokens/sec。虽然H100的性能会更好,但为了简化计算,我们使用此数字。
基于上述数据,小时tokens数为158,760,所以成本为(2/小时) / (158,760 tokens/小时) = ~0.013/1k tokens。
从上述对比中可以看出,对于特定的需求和场景,自主托管的小型LLM可能具有更高的性价比。但同时也要考虑到模型的限制和维护成本。建议用户根据自己的具体需求进行选择。
注意:以上计算是基于特定的数据和假设,可能存在一定的误差。
导致Sam离职风波背后的OpenAI最近的技术突破——Q*项目信息汇总
DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?
大模型泛化能力详解:大模型泛化能力分类、泛化能力来源和泛化研究的方向
大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
需要多少GPU显存才能运行预训练大语言模型?大语言模型参数规模与显存大小的关系估算方法~
又一个国产开源大模型发布:前腾讯创始人创业公司元象发布XVERSE-13B,超过Baichuan-13B,与ChatGLM2-12B齐平!但免费商用授权!
国产开源大模型再添重要玩家:BAAI发布开源可商用大模型Aquila
目前业界支持中文大语言模型开源和商用许可协议总结
百度文心一言发布,功能尝鲜概览
能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
重磅!OpenAI发布GPT-4o mini,这是GPT-3.5的替代升级版,价格下降60%,但是更快更强!编程能力甚至超过GPT-4!
重回第一!OpenAI升级GPT-4-Turbo到2024-04-09版本(gpt-4-turbo-2024-04-09),GPT-4推理和数学能力大幅提高,基准测试最高有接近20%的提升!
Google前AI研究人员认为2024年可能不会出现能与GPT-4竞争的开源模型/产品
疑似GPT-4.5的定价截图泄露,但真假未知,不过GPT-4微调的功能已经推出,只能说非常贵!
GPT-4在11月份以来变懒的原因可能已经找到:大模型可能会在节假日期间变得不愿意干活,工作日期间却更加高效
为企业单独定制训练一个GPT-4要多少钱?OpenAI说几个月,200-300万美元起步!
OpenAI再度泄露重磅更新,GPT-4即将发布128K的超长上下文版本以及多模态版本,价格下降一大半!
近期ChatGPT Plus用户发现GPT-4性能大幅下降!GPT-4性能下降的现象和原因总结
可能是史上最强大的AI Agent!OpenAI重磅更新:整合了多模态、外部访问、数据分析后的GPT-4更像是AI Agent了!
AutoGPT是如何让GPT-4自动帮你完成任务的——最火的AutoGPT原理解析!
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介