3月29日,DeepMind发表了一篇论文,"Training Compute-Optimal Large Language Models",表明基本上每个人--OpenAI、DeepMind、微软等--都在用极不理想的计算方式训练大型语言模型。论文认为这些模型对计算的使用一直处于非常不理想的状态。并提出了新的模型缩放规律。
HMC(Hamiltonian Monte Carlo抽样算法详细介绍)
origin绘图操作案例(1)
狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)
2018年7月份以来最好的机器学习的Github库和Reddit帖子
全球最大(最挣钱)的十大开源企业
机器学习之正则化项
期刊审稿周期查询方法
Indian Buffet Process(印度自助餐过程)介绍
网络爬虫之java基础篇QueryRunner(Ⅲ)
清除浮动的几种方法
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
stata 用outreg2输出回归结果
深度学习技巧之Early Stopping(早停法)
Wishart分布简介