前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >基于Pytorch构建DenseNet网络对cifar-10进行分类

基于Pytorch构建DenseNet网络对cifar-10进行分类

作者头像
python与大数据分析
发布2023-09-03 21:23:41
3270
发布2023-09-03 21:23:41
举报

DenseNet是指Densely connected convolutional networks(密集卷积网络)。它的优点主要包括有效缓解梯度消失、特征传递更加有效、计算量更小、参数量更小、性能比ResNet更好。它的缺点主要是较大的内存占用。

DenseNet网络与Resnet、GoogleNet类似,都是为了解决深层网络梯度消失问题的网络。

Resnet从深度方向出发,通过建立前面层与后面层之间的“短路连接”或“捷径”,从而能训练出更深的CNN网络。

GoogleNet从宽度方向出发,通过Inception(利用不同大小的卷积核实现不同尺度的感知,最后进行融合来得到图像更好的表征)。

DenseNet从特征入手,通过对前面所有层与后面层的密集连接,来极致利用训练过程中的所有特征,进而达到更好的效果和减少参数。

DenseNet网络

Dense Block:像GoogLeNet网络由Inception模块组成、ResNet网络由残差块(Residual Building Block)组成一样,DenseNet网络由Dense Block组成,论文截图如下所示:每个层从前面的所有层获得额外的输入,并将自己的特征映射传递到后续的所有层,使用级联(Concatenation)方式,每一层都在接受来自前几层的”集体知识(collective knowledge)”。增长率(growth rate)k是每个层的额外通道数。

其实说了那么多我也不大明白原理和数学推理,只需要按照相关代码做就行了

代码语言:javascript
复制
  1. class Bottleneck(nn.Module):
  2. def __init__(self, input_channel, growth_rate):
  3. super(Bottleneck, self).__init__()
  4. self.bn1 = nn.BatchNorm2d(input_channel)
  5. self.relu1 = nn.ReLU(inplace=True)
  6. self.conv1 = nn.Conv2d(input_channel, 4 * growth_rate, kernel_size=1)
  7. self.bn2 = nn.BatchNorm2d(4 * growth_rate)
  8. self.relu2 = nn.ReLU(inplace=True)
  9. self.conv2 = nn.Conv2d(4 * growth_rate, growth_rate, kernel_size=3, padding=1)
  10. def forward(self, x):
  11. out = self.conv1(self.relu1(self.bn1(x)))
  12. out = self.conv2(self.relu2(self.bn2(out)))
  13. out = torch.cat([out, x], 1)
  14. return out
  15. class Transition(nn.Module):
  16. def __init__(self, input_channels, out_channels):
  17. super(Transition, self).__init__()
  18. self.bn = nn.BatchNorm2d(input_channels)
  19. self.relu = nn.ReLU(inplace=True)
  20. self.conv = nn.Conv2d(input_channels, out_channels, kernel_size=1)
  21. def forward(self, x):
  22. out = self.conv(self.relu(self.bn(x)))
  23. out = F.avg_pool2d(out, 2)
  24. return out
  25. class DenseNet(nn.Module):
  26. def __init__(self, nblocks, growth_rate, reduction, num_classes):
  27. super(DenseNet, self).__init__()
  28. self.growth_rate = growth_rate
  29. num_planes = 2 * growth_rate
  30. self.basic_conv = nn.Sequential(
  31. nn.Conv2d(3, 2 * growth_rate, kernel_size=7, stride=2, padding=3),
  32. nn.BatchNorm2d(2 * growth_rate),
  33. nn.ReLU(inplace=True),
  34. nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
  35. )
  36. self.dense1 = self._make_dense_layers(num_planes, nblocks[0])
  37. num_planes += nblocks[0] * growth_rate
  38. out_planes = int(math.floor(num_planes * reduction))
  39. self.trans1 = Transition(num_planes, out_planes)
  40. num_planes = out_planes
  41. self.dense2 = self._make_dense_layers(num_planes, nblocks[1])
  42. num_planes += nblocks[1] * growth_rate
  43. out_planes = int(math.floor(num_planes * reduction))
  44. self.trans2 = Transition(num_planes, out_planes)
  45. num_planes = out_planes
  46. self.dense3 = self._make_dense_layers(num_planes, nblocks[2])
  47. num_planes += nblocks[2] * growth_rate
  48. out_planes = int(math.floor(num_planes * reduction))
  49. self.trans3 = Transition(num_planes, out_planes)
  50. num_planes = out_planes
  51. self.dense4 = self._make_dense_layers(num_planes, nblocks[3])
  52. num_planes += nblocks[3] * growth_rate
  53. self.AdaptiveAvgPool2d = nn.AdaptiveAvgPool2d(1)
  54. # 全连接层
  55. self.fc = nn.Sequential(
  56. nn.Linear(num_planes, 256),
  57. nn.ReLU(inplace=True),
  58. # 使一半的神经元不起作用,防止参数量过大导致过拟合
  59. nn.Dropout(0.5),
  60. nn.Linear(256, 128),
  61. nn.ReLU(inplace=True),
  62. nn.Dropout(0.5),
  63. nn.Linear(128, 10)
  64. )
  65. def _make_dense_layers(self, in_planes, nblock):
  66. layers = []
  67. for i in range(nblock):
  68. layers.append(Bottleneck(in_planes, self.growth_rate))
  69. in_planes += self.growth_rate
  70. return nn.Sequential(*layers)
  71. def forward(self, x):
  72. out = self.basic_conv(x)
  73. out = self.trans1(self.dense1(out))
  74. out = self.trans2(self.dense2(out))
  75. out = self.trans3(self.dense3(out))
  76. out = self.dense4(out)
  77. out = self.AdaptiveAvgPool2d(out)
  78. out = out.view(out.size(0), -1)
  79. out = self.fc(out)
  80. return out
  81. def DenseNet121():
  82. return DenseNet([6, 12, 24, 16], growth_rate=32, reduction=0.5, num_classes=10)
  83. def DenseNet169():
  84. return DenseNet([6, 12, 32, 32], growth_rate=32, reduction=0.5, num_classes=10)
  85. def DenseNet201():
  86. return DenseNet([6, 12, 48, 32], growth_rate=32, reduction=0.5, num_classes=10)
  87. def DenseNet265():
  88. return DenseNet([6, 12, 64, 48], growth_rate=32, reduction=0.5, num_classes=10)
  89. # 初始化模型
  90. from torchstat import stat
  91. # 定义模型输出模式,GPU和CPU均可
  92. model = DenseNet121().to(DEVICE)

在NVIDIA GeForce GTX 1660 SUPER显卡上训练了100轮,大致上一轮1分钟,这是DenseNet网络训练的损失率和准确率,在验证集也是保持80%的准确率。

DenseNet也是一个系列,包括DenseNet-121、DenseNet-169等等,论文中给出了4种层数的DenseNet,论文截图如下所示:所有网络的增长率k是32,表示每个Dense Block中每层输出的feature map个数。

关于图像分类的模型算法,热情也没了,到此也就告一段落了,后续再讨论一些新的话题。

本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-08-21,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 python与大数据分析 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 在NVIDIA GeForce GTX 1660 SUPER显卡上训练了100轮,大致上一轮1分钟,这是DenseNet网络训练的损失率和准确率,在验证集也是保持80%的准确率。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com