type
status
date
slug
summary
tags
category
icon
password
6.2.1 互相关运算
这里以二维的图像处理为例

我的理解是,核函数相当于是一个 filter,把他套在对应大小的 input 上,对于覆盖到的数值进行某种运算,得到输出后的值,作为该区域的 output
然后按顺序把这个 filter 不断移动,遍历整个完整输入,得到最终的输出
6.2.4 学习卷积核
这里是通过 计算-算误差-更新 实现更新 filter 参数的功能
6.2.5 互相关和卷积
严格来说,卷积层是个错误的叫法,因为它所表达的运算其实是互相关运算(cross-correlation),而不是卷积运算。
由于卷积核是从数据中学习到的,因此无论这些层执行严格的卷积运算还是互相关运算,卷积层的输出都不会受到影响。
为了与深度学习文献中的标准术语保持一致,我们将继续把“互相关运算”称为卷积运算,尽管严格地说,它们略有不同。 此外,对于卷积核张量上的权重,我们称其为元素。
6.2.6 特征映射和感受野
输出的卷积层有时被称为特征映射(feature map),因为它可以被视为一个输入映射到下一层的空间维度的转换器。
在卷积神经网络中,对于某一层的任意元素 ,其感受野(receptive field)是指在前向传播期间可能影响 计算的所有元素(来自所有先前层)。
在我的理解中,特征映射和感受野存在某种意义上的逆向关系
特征映射
指的是用 filter 处理后的值,指的是完整的输出
感受野
filter 处理后的值对应的输入区域
6.2.7 小结
- 二维卷积层的核心计算是二维互相关运算。最简单的形式是,对二维输入数据和卷积核执行互相关操作,然后添加一个偏置。
- 我们可以设计一个卷积核来检测图像的边缘。
- 我们可以从数据中学习卷积核的参数。
- 学习卷积核时,无论用严格卷积运算或互相关运算,卷积层的输出不会受太大影响。
- 当需要检测输入特征中更广区域时,我们可以构建一个更深的卷积网络。
- 作者:昊卿
- 链接:hqhq1025.tech/article/1b3a897c-9da0-80eb-8633-d1999258c4b9
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
相关文章