DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

深度学习技巧之Padding

2019/02/20 15:22:48
7,076 阅读
卷积神经网络深度学习神经网络

卷积神经网络是深度学习中处理图像的利器。在卷积神经网络中,Padding是一种非常常见的操作。本片博客将简要介绍Padding的原理。

首先,我们看一下正常的卷积操作:

如上图所示,左图是一个5×5的图像(绿色),我们使用一个3×3的卷积核(kernal,或者是滤波器,filter)进行卷积操作(黄色),最终可以得到一个3×3的结果(右边的红色图像)。

使用卷积操作处理图像带来了两个问题:首先是图像由原来的5×5的矩阵变成了3×3的结果,这使得输入的图像缩小(shrink)了。在一个大型的卷积神经网络中,如果一个图像经过了几百次的卷积操作,那么会使得图片缩小的很厉害。其次,可以看到,这种扫描方式会使得边缘角落的像素被扫到的次数少于中间的像素。例如,左上角第一个像素1,自始至终只会被扫描到1次,而最中间的1会被扫描到9次。这种操作会使我们都是图片的边缘信息。

为了缓解上述问题,我们会对图片做填充操作(padding)。即在图片边缘加一条边。

这时候,原来的5×5的图像,就变成了7×7的图像了。继续使用上述3×3的卷积核扫描,最终会得到(7-3+1)=5×5的结果。假设原始图像是n×n,填充宽度为p,卷积核大小是f×f,那么卷积操作之后图像大小的结果是:

(n+2 p-f+1) \times (n+2 p-f+1)

到这里也许有个疑问,就是padding的长度如何选择。这里一般有两个选择原则,一个是有效卷积(valid convolutions)和一个是不变卷积(same convolutions)。前一个其实就是不添加padding。后者就是添加一个padding长度使得卷积操作前后的图像大小一致。这时候padding长度结果是$p=\frac{f-1}{2}$。这里的f我们经常会看到都是奇数。实际上很难看到大家使用偶数的卷积核。这个原因可能有两个,一个是如果你选择偶数作为卷积核大小,会导致padding不对称。最后要么左边多一点要么右边多一点,很奇怪。另一个原因是如果使用奇数作为卷积核大小,那么卷积核正好有个最中心的点。这就很容易用来描述卷积核的位置。解释不算完美,但是是吴恩达coursera课程上给出的。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • 使用卷积神经网络进行手写识别
  • CNN中的一些高级技术(空洞卷积/显著图/反卷积)
  • CNN经典算法AlexNet介绍
  • CNN经典算法之BN-Inception(附论文详细解读)
  • 深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)
  • CNN经典算法之Inception V1(GoogLeNet)
  • CNN经典算法VGGNet介绍
  • CNN入门算法LeNet-5介绍(论文详细解读)

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署