深度学习算法第四课——CNN原理

导读:本篇文章讲解 深度学习算法第四课——CNN原理,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

目录

1.卷积神经网络的应用领域

2.卷积的作用

3.卷积特征值计算方法

4.得到特征图表示

5.步长与卷积核大小对结果的影响

6.边缘填充方法

7.特征图尺寸计算与参数分享

8.池化(压缩)层的作用


1.卷积神经网络的应用领域

  • 检测任务

深度学习算法第四课——CNN原理

  •  分类与检索

深度学习算法第四课——CNN原理

  •  超分辨率重构

深度学习算法第四课——CNN原理

  • 人脸识别

深度学习算法第四课——CNN原理

2.卷积的作用

  •  整体架构

深度学习算法第四课——CNN原理

  • 卷积

        首先把图像分成每个小区域,对于不同的区域得到的特征是不一样的,选择一种计算方法计算每一块小区域的特征值。

深度学习算法第四课——CNN原理

3.卷积特征值计算方法

  • 图像颜色通道

    每个通道分别进行计算,最终把每个通道卷积的结果加在一起。

深度学习算法第四课——CNN原理

  • 卷积

    找到一个立体区域,对于每一个区域进行特征提取,得到最终的一个特征值。

深度学习算法第四课——CNN原理

 

4.得到特征图表示

  • 卷积计算的方法

            首先,摆一下数据,分成一个个小区域,对于每一个小区域,从Filter核当中选择指定大小然后计算内积,把内积的计算结果分别计算好就可以了。

深度学习算法第四课——CNN原理

 

5.步长与卷积核大小对结果的影响

  • 滑动窗口步长

    能移动的窗口越多,得到的特征值越多,得到的特征图越大。当步长比较小的时候,相当于慢慢的提取特征,细粒度的提取特征,这样提取到的特征是比较丰富的。当步长比较大的时候,走得比较粗糙,滑动比较大,得到的特征比较少,没有那么丰富。

    选择步长要根据实际任务来,一般对于图像来说,选择步长为1就可以了,但是有些任务跟图像是不太一样的,比如说有一些文本任务。

深度学习算法第四课——CNN原理

  • 卷积核尺寸

        选择3乘3得到一个结果,选择4乘4也是得到一个结果。相当于选择区域的大小以及最终得到的结果个数是不同的,卷积核越小,越是细粒度的提取。

深度学习算法第四课——CNN原理

 一般情况下滑动窗口步长为1,卷积核尺寸最小为3*3

 

6.边缘填充方法

  • 什么是边缘填充?

            有些点对计算天生就有优势,越往边界的点被利用的次数越少,我们应该使得边界点被利用的更多一些。在最外圈加上一圈0,这样原本是边界的点就不是边界了,一定程度上弥补了边界信息缺失的问题。

深度学习算法第四课——CNN原理

 

7.特征图尺寸计算与参数分享

  • 卷积结果计算公式深度学习算法第四课——CNN原理

  •  卷积参数共享 深度学习算法第四课——CNN原理

 

8.池化(压缩)层的作用

  • 池化层深度学习算法第四课——CNN原理

  •  最大池化(筛选、压缩、过滤) 深度学习算法第四课——CNN原理
  • 特征图变化深度学习算法第四课——CNN原理

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/99503.html

(0)
小半的头像小半

相关推荐

极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!