标签:#fine-tune##fp##gpu##lora##nvlink##P-tune##精度# 时间:2023/08/04 12:02:50 作者:LiamLee
各大企业和机构拥有的NVIDIA A100的GPU显卡数量
总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数量
好消息~Kaggle提高了免费的GPU和内存等计算资源的使用额度!
一张图看全深度学习中下层软硬件体系结构
基于GPU的机器学习Python库——RAPIDS简介及其使用方法
Ubuntu 命令行 指定GPU 运行 Python 程序
华盛顿大学提出QLoRA及开源预训练模型Guanaco:将650亿参数规模的大模型微调的显存需求从780G降低到48G!单张显卡可用!
在消费级显卡上微调OpenAI开源的自动语言识别模型Whisper:8GB显存即可针对你自己的数据建立ASR模型
为什么大语言模型的训练和推理要求比较高的精度,如FP32、FP16?浮点运算的精度概念详解
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介