CNN中卷积核数是什么
更新:HHH   时间:2023-1-7


小编给大家分享一下CNN中卷积核数是什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

  卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。

  卷积核的意义

  卷积核其实在图像处理中并不是新事物,Sobel算子等一系列滤波算子,一直都在被用于边缘检测等工作中,只是以前被称为Filter。做图像处理的同学应该有印象。

  卷积核具有的一个属性就是局部性。即它只关注局部特征,局部的程度取决于卷积核的大小。比如用Sobel算子进行边缘检测,本质就是比较图像邻近像素的相似性。

  也可以从另外一个角度理解卷积核的意义。学过信号处理的同学应该记得,时域卷积对应频域相乘。所以原图像与卷积核的卷积,其实是对频域信息进行选择。比如,图像中的边缘和轮廓属于是高频信息,图像中某区域强度的综合考量属于低频信息。在传统图像处理里,这是指导设计卷积核的一个重要方面。

  CNN中的卷积核

  CNN中的卷积核跟传统的卷积核本质没有什么不同。仍然以图像为例,卷积核依次与输入不同位置的图像块做卷积,得到输出。

  同时,CNN有一些它独特的地方,比如各种定义:

  CNN可以看作是DNN的一种简化形式,即这里卷积核中的每一个权值就可以看成是DNN中的,且与DNN一样,会多一个参数偏置。

  一个卷积核在与Input不同区域做卷积时,它的参数是固定不变的。放在DNN的框架中理解,就是对同一层Layer中的神经元而言,它们的和是相同的,只是所连接的节点在改变。因此在CNN里,这叫做共享权值偏置。

  在CNN中,卷积核可能是高维的。假如输入是维的,那么一般卷积核就会选择为维,也就是与输入的Depth一致。

  最重要的一点,在CNN中,卷积核的权值不需要提前设计,而是跟DNN一样利用GD来优化,我们只需要初始化。

  如上面所说,其实卷积核卷积后得到的会是原图的某些特征(如边缘信息),所以在CNN中,卷积核卷积得到的Layer称作特征图。

  总之,一般CNN中两层之间会含有多个卷积核,目的是学习出Input的不同特征,对应得到多个特征图。又由于卷积核中的参数是通过GD优化得到而非我们设定的,于是初始化就显得格外重要了。

以上是“CNN中卷积核数是什么”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注天达云行业资讯频道!

返回开发技术教程...