随着ChatGPT的火爆,Prompts概念开始被大家所熟知。早期类似如BERT模型的微调都是通过有监督学习的方式进行。但是随着模型越来越大,冻结大部分参数,根据下游任务做微调对模型的影响越来越小。大家开始发现,让下游任务适应预训练模型的训练结果有更好的性能。而ChatGPT的火爆让大家知道,虽然ChatGPT的能力很强,但是需要很好的提问方式才能让它为你所服务。
100天搞定机器学习(100-Days-Of-ML)(一)数据预处理
2021年适合初学者的10个最佳机器学习在线课程
margin的IE6兼容问题
【转载】全面解读ICML 2017五大研究热点 | 腾讯AI Lab独家解析
主题模型聚类匹配2018TKDE阅读笔记(Topic Models for Unsupervised Cluster Matching)
Stable Diffusion的Tensorflow/Keras实现及使用
Dask分布式任务中包含写文件的方法时候,程序挂起不结束的解决方案
全球最大的39亿参数的text-to-image预训练模型发布
基于PITF模型的个性化标签推荐
z-index
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
Wishart分布简介
深度学习技巧之Early Stopping(早停法)
stata 用outreg2输出回归结果