type
status
date
slug
summary
tags
category
icon
password

6.2.1 互相关运算

这里以二维的图像处理为例
notion image
我的理解是,核函数相当于是一个 filter,把他套在对应大小的 input 上,对于覆盖到的数值进行某种运算,得到输出后的值,作为该区域的 output
然后按顺序把这个 filter 不断移动,遍历整个完整输入,得到最终的输出

6.2.4 学习卷积核

这里是通过 计算-算误差-更新 实现更新 filter 参数的功能

6.2.5 互相关和卷积

严格来说,卷积层是个错误的叫法,因为它所表达的运算其实是互相关运算(cross-correlation),而不是卷积运算。
由于卷积核是从数据中学习到的,因此无论这些层执行严格的卷积运算还是互相关运算,卷积层的输出都不会受到影响。
为了与深度学习文献中的标准术语保持一致,我们将继续把“互相关运算”称为卷积运算,尽管严格地说,它们略有不同。 此外,对于卷积核张量上的权重,我们称其为元素

6.2.6 特征映射和感受野

输出的卷积层有时被称为特征映射(feature map),因为它可以被视为一个输入映射到下一层的空间维度的转换器。 
在卷积神经网络中,对于某一层的任意元素 ,其感受野(receptive field)是指在前向传播期间可能影响 计算的所有元素(来自所有先前层)。
在我的理解中,特征映射和感受野存在某种意义上的逆向关系
特征映射
指的是用 filter 处理后的值,指的是完整的输出
感受野
filter 处理后的值对应的输入区域

6.2.7 小结

  • 二维卷积层的核心计算是二维互相关运算。最简单的形式是,对二维输入数据和卷积核执行互相关操作,然后添加一个偏置。
  • 我们可以设计一个卷积核来检测图像的边缘。
  • 我们可以从数据中学习卷积核的参数。
  • 学习卷积核时,无论用严格卷积运算或互相关运算,卷积层的输出不会受太大影响。
  • 当需要检测输入特征中更广区域时,我们可以构建一个更深的卷积网络。
 
6.3 填充和步幅6.1 从全连接层到卷积
Loading...