标签:#深度学习##论文快讯##预训练模型# 时间:2022/05/12 22:52:33 作者:小木
Batch Normalization应该在激活函数之前使用还是激活函数之后使用?
Saleforce发布最新的开源语言-视觉处理深度学习库LAVIS
深度学习模型训练将训练批次(batch)设置为2的指数是否有实际价值?
指标函数(Metrics Function)和损失函数(Loss Function)的区别是什么?
亚马逊近线性大规模模型训练加速库MiCS来了!
Hugging Face发布最新的深度学习模型评估库Evaluate!
开源版本的GPT-3来临!Meta发布OPT大语言模型!
超越Cross-Entropy Loss(交叉熵损失)的新损失函数——PolyLoss简介
强烈推荐斯坦福大学的深度学习示意图网站
如何构建下一代机器翻译系统——Building Machine Translation Systems for the Next Thousand Languages
Unifying Language Learning Paradigms——谷歌的一个模型打天下
正则化和数据增强对模型的影响并不总是好的:The Effects of Regularization and Data Augmentation are Class Dependent
最近一段时间深度学习大模型的重要进展(2022年4月初)
Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models
新的对话式语言模型可以将自然语言转换成可执行代码!
Deep Neural Networks and Tabular Data: A Survey——XGBoost依然是最优秀的算法模型
重磅!大规模预训练模型路线图
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介