大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
2023年4月业界发布的重要20多个AI模型总结:OpenAssistant、Segment Anything Model、StableLM、AudioGPT等
100天搞定机器学习(100-Days-Of-ML)(一)数据预处理
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?
总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数量
基于GPU的机器学习Python库——RAPIDS简介及其使用方法
如何估计大模型推理或者训练所需要的显存大小?HuggingFace官方工具Model Memory Calculator,一键计算大模型显存需求~
为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?