谈谈膨胀卷积

论坛 期权论坛 脚本     
匿名技术用户   2021-1-6 01:52   41   0

膨胀卷积(空洞卷积、Dilation Convolution/Atrous Convolution)的本质是为了

1.避免下采样而减少feature map的信息

2.感受野又不变


如图,(c)为膨胀卷积,考虑亮黄色的神经元,视野为1-5,在(b)的情况中,需要再加一层,才有一个神经元的视野有1-5的情况,但这样参数就变成了好几倍了。


caffe中的膨胀系数dilation可以理解为对 原始卷积尺寸-1 的倍数,以此求出膨胀后的卷积核尺寸

kernel_size_after_dilate - 1 = dilate * (kernel_size_before_dilate - 1)

可以认为原始卷积核每个数中间加了dilate - 1个0,变成了kernel_size_after_dilate的正常卷积操作

(caffe中为dilation,tensorflow中对应为rate参数)

此时的(SAME)pad大小为

pad = int((kernel_size + (dilation - 1) * (kernel_size - 1)) - 1) / 2


分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:7942463
帖子:1588486
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP