摘要:本文主要对CoordConv的理论进行了介绍,对其进行了复现,并展示了其在网络结构中的用法。

本文分享自华为云社区《CoordConv:给你的卷积加上坐标》,作者: 李长安。

一、理论介绍

1.1 CoordConv理论详解

这是一篇考古的论文复现项目,在2018年作者提出这个CoordConv模块的时候有很多文章对其进行批评,认为这个不值得发布一篇论文,但是现在重新看一下这个idea,同时再对比一下目前Transformer中提出的位置编码(Position Encoding),你就会感概历史是个圈,在角点卷积中,为卷积添加两个坐标编码实际上与Transformer中提出的位置编码是同样的道理。

众所周知,深度学习里的卷积运算是具有平移等变性的,这样可以在图像的不同位置共享统一的卷积核参数,但是这样卷积学习过程中是不能感知当前特征在图像中的坐标的,论文中的实验证明如下图所示。通过该实验,作者证明了传统卷积在卷积核进行局部运算时,仅仅能感受到局部信息,并且是无法感受到位置信息的。CoordConv就是通过在卷积的输入特征图中新增对应的通道来表征特征图像素点的坐标,让卷积学习过程中能够一定程度感知坐标来提升检测精度。

传统卷积无法将空间表示转换成笛卡尔空间中的坐标和one-hot像素空间中的坐标。卷积是等变的,也就是说当每个过滤器应用到输入上时,它不知道每个过滤器在哪。我们可以帮助卷积,让它知道过滤器的位置。这一过程需要在输入上添加两个通道实现,一个在i坐标,另一个在j坐标。通过上面的添加坐标的操作,我们可以的出一种新的卷积结构–CoordConv,其结构如下图所示:

二、代码实战

本部分根据CoordConv论文并参考飞桨的官方实现完成CoordConv的复现。

  1. import paddle
  2. import paddle.nn as nn
  3. import paddle.nn.functional as F
  4. from paddle import ParamAttr
  5. from paddle.regularizer import L2Decay
  6. from paddle.nn import AvgPool2D, Conv2D

2.1 CoordConv类代码实现

首先继承nn.Layer基类,其次使用paddle.arange定义gx``gy两个坐标,并且停止它们的梯度反传gx.stop_gradient = True,最后将它们concat到一起送入卷积即可。

  1. class CoordConv(nn.Layer):
  2. def __init__(self, in_channels, out_channels, kernel_size, stride, padding):
  3. super(CoordConv, self).__init__()
  4. self.conv = Conv2D(
  5. in_channels + 2, out_channels , kernel_size , stride , padding)
  6. def forward(self, x):
  7. b = x.shape[0]
  8. h = x.shape[2]
  9. w = x.shape[3]
  10. gx = paddle.arange(w, dtype='float32') / (w - 1.) * 2.0 - 1.
  11. gx = gx.reshape([1, 1, 1, w]).expand([b, 1, h, w])
  12. gx.stop_gradient = True
  13. gy = paddle.arange(h, dtype='float32') / (h - 1.) * 2.0 - 1.
  14. gy = gy.reshape([1, 1, h, 1]).expand([b, 1, h, w])
  15. gy.stop_gradient = True
  16. y = paddle.concat([x, gx, gy], axis=1)
  17. y = self.conv(y)
  18. return y
  19. class dcn2(paddle.nn.Layer):
  20. def __init__(self, num_classes=1):
  21. super(dcn2, self).__init__()
  22. self.conv1 = paddle.nn.Conv2D(in_channels=3, out_channels=32, kernel_size=(3, 3), stride=1, padding = 1)
  23. self.conv2 = paddle.nn.Conv2D(in_channels=32, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)
  24. self.conv3 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)
  25. self.offsets = paddle.nn.Conv2D(64, 18, kernel_size=3, stride=2, padding=1)
  26. self.mask = paddle.nn.Conv2D(64, 9, kernel_size=3, stride=2, padding=1)
  27. self.conv4 = CoordConv(64, 64, (3,3), 2, 1)
  28. self.flatten = paddle.nn.Flatten()
  29. self.linear1 = paddle.nn.Linear(in_features=1024, out_features=64)
  30. self.linear2 = paddle.nn.Linear(in_features=64, out_features=num_classes)
  31. def forward(self, x):
  32. x = self.conv1(x)
  33. x = F.relu(x)
  34. x = self.conv2(x)
  35. x = F.relu(x)
  36. x = self.conv3(x)
  37. x = F.relu(x)
  38. x = self.conv4(x)
  39. x = F.relu(x)
  40. x = self.flatten(x)
  41. x = self.linear1(x)
  42. x = F.relu(x)
  43. x = self.linear2(x)
  44. return x
  45. cnn3 = dcn2()
  46. model3 = paddle.Model(cnn3)
  47. model3.summary((64, 3, 32, 32))
  48. ---------------------------------------------------------------------------
  49. Layer (type) Input Shape Output Shape Param #
  50. ===========================================================================
  51. Conv2D-26 [[64, 3, 32, 32]] [64, 32, 32, 32] 896
  52. Conv2D-27 [[64, 32, 32, 32]] [64, 64, 15, 15] 18,496
  53. Conv2D-28 [[64, 64, 15, 15]] [64, 64, 7, 7] 36,928
  54. Conv2D-31 [[64, 66, 7, 7]] [64, 64, 4, 4] 38,080
  55. CoordConv-4 [[64, 64, 7, 7]] [64, 64, 4, 4] 0
  56. Flatten-1 [[64, 64, 4, 4]] [64, 1024] 0
  57. Linear-1 [[64, 1024]] [64, 64] 65,600
  58. Linear-2 [[64, 64]] [64, 1] 65
  59. ===========================================================================
  60. Total params: 160,065
  61. Trainable params: 160,065
  62. Non-trainable params: 0
  63. ---------------------------------------------------------------------------
  64. Input size (MB): 0.75
  65. Forward/backward pass size (MB): 26.09
  66. Params size (MB): 0.61
  67. Estimated Total Size (MB): 27.45
  68. ---------------------------------------------------------------------------
  69. {'total_params': 160065, 'trainable_params': 160065}
  70. class MyNet(paddle.nn.Layer):
  71. def __init__(self, num_classes=1):
  72. super(MyNet, self).__init__()
  73. self.conv1 = paddle.nn.Conv2D(in_channels=3, out_channels=32, kernel_size=(3, 3), stride=1, padding = 1)
  74. self.conv2 = paddle.nn.Conv2D(in_channels=32, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)
  75. self.conv3 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)
  76. self.conv4 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 1)
  77. self.flatten = paddle.nn.Flatten()
  78. self.linear1 = paddle.nn.Linear(in_features=1024, out_features=64)
  79. self.linear2 = paddle.nn.Linear(in_features=64, out_features=num_classes)
  80. def forward(self, x):
  81. x = self.conv1(x)
  82. x = F.relu(x)
  83. x = self.conv2(x)
  84. x = F.relu(x)
  85. x = self.conv3(x)
  86. x = F.relu(x)
  87. x = self.conv4(x)
  88. x = F.relu(x)
  89. x = self.flatten(x)
  90. x = self.linear1(x)
  91. x = F.relu(x)
  92. x = self.linear2(x)
  93. return x
  94. # 可视化模型
  95. cnn1 = MyNet()
  96. model1 = paddle.Model(cnn1)
  97. model1.summary((64, 3, 32, 32))
  98. ---------------------------------------------------------------------------
  99. Layer (type) Input Shape Output Shape Param #
  100. ===========================================================================
  101. Conv2D-1 [[64, 3, 32, 32]] [64, 32, 32, 32] 896
  102. Conv2D-2 [[64, 32, 32, 32]] [64, 64, 15, 15] 18,496
  103. Conv2D-3 [[64, 64, 15, 15]] [64, 64, 7, 7] 36,928
  104. Conv2D-4 [[64, 64, 7, 7]] [64, 64, 4, 4] 36,928
  105. Flatten-1 [[64, 64, 4, 4]] [64, 1024] 0
  106. Linear-1 [[64, 1024]] [64, 64] 65,600
  107. Linear-2 [[64, 64]] [64, 1] 65
  108. ===========================================================================
  109. Total params: 158,913
  110. Trainable params: 158,913
  111. Non-trainable params: 0
  112. ---------------------------------------------------------------------------
  113. Input size (MB): 0.75
  114. Forward/backward pass size (MB): 25.59
  115. Params size (MB): 0.61
  116. Estimated Total Size (MB): 26.95
  117. ---------------------------------------------------------------------------
  118. {'total_params': 158913, 'trainable_params': 158913}

总结

相信通过之前的教程,相信大家已经能够熟练掌握了迅速开启训练的方法。所以,之后的教程我都会关注于具体的代码实现以及相关的理论介绍。如无必要,不再进行对比实验。本次教程主要对CoordConv的理论进行了介绍,对其进行了复现,并展示了其在网络结构中的用法。大家可以根据的实际需要,将其移植到自己的网络中。

一些需要注意的点

  1. CoordConv的位置在网络中应该尽量靠前
  2. 最好的应用方向是姿态估计等对位置高度敏感的CV任务

点击关注,第一时间了解华为云新鲜技术~

CoordConv:给你的卷积加上坐标的更多相关文章

  1. An intriguing failing of convolutional neural networks and the CoordConv solution

    An intriguing failing of convolutional neural networks and the CoordConv solution NeurIPS 2018 2019- ...

  2. mnist卷积网络实现

    加载MNIST数据 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_se ...

  3. 【NOIP2005】过河

    感觉这题好玄--最后看了chty的代码才过,我现在这样必须看题解才能A题怎么办嘛qaq 原题: 在河上有一座独木桥,一只青蛙想沿着独木桥从河的一侧跳到另一侧.在桥上有一些石子,青蛙很讨厌踩在这些石子上 ...

  4. gnuplot 学习笔记

    1 如何运行 gnuplot是一个命令行输入的工具,把命令行写入一个文本file1 file2.使用下列方式运行. gnuplot {option} file1 file2 2 产生一个图标,不管数据 ...

  5. 【SDOI2008】解题汇总

    好叭我真的是闲的了... /---------------------------------------------/ BZOJ-2037 [SDOI2008]Sue的小球 DP+相关费用提前计算 ...

  6. BZOJ-2190 仪仗队 数论+欧拉函数(线性筛)

    今天zky学长讲数论,上午水,舒爽的不行..后来下午直接while(true){懵逼:}死循全程懵逼....(可怕)Thinking Bear. 2190: [SDOI2008]仪仗队 Time Li ...

  7. PAT-乙级-1044. 火星数字(20)

    1044. 火星数字(20) 时间限制 400 ms 内存限制 65536 kB 代码长度限制 8000 B 判题程序 Standard 作者 CHEN, Yue 火星人是以13进制计数的: 地球人的 ...

  8. GIS:揭开你神秘的面纱

    转自:http://www.cnblogs.com/gisangela/archive/2013/02/20/2918884.html#!comments GIS从出现到为人所知,只不过经历了短短的几 ...

  9. AHK(1)之运行程序或打开文档

    小鸟学AHK(1)之运行程序或打开文档   AHK就是AutoHotKey,是一款免费的.Windows平台下开放源代码的热键脚本语言. 亲爱的朋友,叫我怎么向你推荐它呢! COOL,对,就是酷,那么 ...

  10. openlayers应用“四”:百度地图纠偏续

    续前一篇,上一篇提到百度地图纠偏的基本思路,经过经过一天的努力,实现了百度地图坐标偏移参数的提取,步骤以及实现效果如下: 1.数据来源:四川省的省道矢量数据 2.提取坐标偏移参数的过程如下: A.将四 ...

随机推荐

  1. oracle修改表中的列

    declare v_Count1 int := 0; v_Count2 int := 0; v_Count3 int := 0; v_Count4 int := 0; v_Count5 int := ...

  2. react intl 国际化

    方案描述:由于采用单页面,所以按钮切换时会刷新页面 1.安装 react-intl  babel-plugin-react-intl json-loader npm i react-intl babe ...

  3. sync同步工具使用

    sync详解 sync概述: rsync是一个提供快速增量文件传输的开源工具.rsync在GNU通用公共许可证下免费提供,目前由Wayne Davison维护.传输前进行压缩,适合做备份使用. 命令格 ...

  4. seleniumUI自动化学习记录

    2019.2.9 尝试了一个启动浏览器并打开指定网址的程序: 这里首先要注意的就是浏览器的版本和selenium jar包的版本必须符合才行,不然会报错 2019.9.16 必须要下载相应的chrom ...

  5. [fiddler的使用]模拟自动回复功能在模拟测试mock第三方对接系统的返回中的使用场景

    [场景描述]在许多对第三方的测试过程中,由于第三方没有测试环境或者测试环境同步开发的时候还未准备好,或者系统间联调时对方还未完成的各种情况下,我们可以通过fiddler来模拟对方的返回. [操作步骤] ...

  6. 20181224《网络攻防技术》Exp 8 Web综合

    20181224<网络攻防技术>Exp 8 Web综合 目录 20181224<网络攻防技术>Exp 8 Web综合 相关知识点总结 web前端 web后端 数据库编程 实验内 ...

  7. 1、HTTP的基本概念与交互模型

    1.上网的整个过程 假设我们点击了某网页上的一个链接,指向清华大学院系设置,其URL是:http://www.tsinghua.edu.cn/chn/yxsz/index.html.我们来分析一下整个 ...

  8. 十大经典排序之堆排序(C++实现)

    堆排序 通过将无序表转化为堆,可以直接找到表中最大值或者最小值,然后将其提取出来,令剩余的记录再重建一个堆, 取出次大值或者次小值,如此反复执行就可以得到一个有序序列,此过程为堆排序. 思路: 1.创 ...

  9. Web_Servlet四大域对象

    保存数据的对象作用于从大到小: ServletContext -- 保存数据到web项目中 Session(会话对象)  -- Request -- 保存当前请求(链),有转发就保存包括转发的数据 P ...

  10. logic 运算符