标签:#RNN##卷积神经网络##文本处理##深度学习# 时间:2017/05/27 15:50:25 作者:somTian
大语言模型的技术总结系列一:RNN与Transformer架构的区别以及为什么Transformer更好
Seq2Seq的建模解释和Keras中Simple RNN Cell的计算及其代码示例
深度学习之GRU神经网络
深度学习之LSTM模型
深度学习之Attention机制
深度学习之Encoder-Decoder架构
深度学习之RNN模型
使用卷积神经网络进行手写识别
CNN中的一些高级技术(空洞卷积/显著图/反卷积)
CNN经典算法AlexNet介绍
CNN经典算法之BN-Inception(附论文详细解读)
深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)
CNN经典算法之Inception V1(GoogLeNet)
CNN经典算法VGGNet介绍
CNN入门算法LeNet-5介绍(论文详细解读)
深度学习技巧之Padding
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
回归模型中的交互项简介(Interactions in Regression)
贝塔分布(Beta Distribution)简介及其应用
矩母函数简介(Moment-generating function)
使用R语言进行K-means聚类并分析结果
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
H5文件简介和使用
深度学习技巧之Early Stopping(早停法)
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
Wishart分布简介