博客
关于我
CVPR 2021 | 涨点神器ACNet再进化!清华&旷视提出Inception类型的DBB
阅读量:549 次
发布时间:2019-03-09

本文共 1098 字,大约阅读时间需要 3 分钟。

Diverse Branch Block: 构建一种与Inception类似的卷积模块


引言

卷积神经网络(Convolutional Neural Networks, CNN)在图像处理任务中发挥着核心作用。然而,随着模型复杂性增加,普通卷积单元的表达能力逐渐有限,如何进一步提升性能成为一个重要挑战。在此背景下,我们提出了一种名为**Diverse Branch Block (DBB)**的卷积模块,该模块通过结合多分支和多尺度的卷积操作,不仅提升了模型的表达能力,还在推理阶段保持了低耗时。


模块设计

DBB模块的核心思想是将卷积操作的多样性与Inception多分支架构结合,同时引入过参数化技术,通过动态多分支结构显著提升卷积网络的性能。

工作原理

  • 分支组合:DBB模块通过六种不同的卷积变换(如卷积与Batch Normalization BN的合并、分支叠加、卷积序列合并、深度拼接、均值池化转换和多尺度卷积转换)对原始卷积进行增强。这些变换可以相互合并,形成一个高度灵活的多分支结构。

  • 动态多分支:与传统的Inception架构不同,DBB模块在分支之间引入了动态组合机制。每个分支的中间通道数等于输入通道数,且卷积核设计为identity矩阵,以保证不同尺度信息的有效结合。BN层的引入则为每个卷积节点提供了必要的非线性提升。

  • 推理阶段优化:一旦完成训练,DBB模块可以通过卷积的线性特性(同质与加法性)等价折叠为单个卷积模块,从而在推理阶段实现零额外计算开销。


  • 实验结果

    DBB模块在ImageNet、CIFAR、Cityscapes等多个数据集上展现出显著性能提升,特别是在目标检测和语义分割任务中表现优异。以下是主要实验结果:

  • ImageNet Top-1 Accuracy:DBB模块使ResNet-VGG型模型的top-1精度提升了约1.9%,在轻量级模型如MobileNet中则表现出0.99%的提升。

  • CIFAR性能:DBB模块使VGG16模型在CIFAR10和CIFAR100上的精度分别提升了0.67%和1.67%。

  • 消融实验:移除任意一个分支都会导致性能下降,表明每个分支都是关键。此外,与传统多尺度卷积相比,DBB模块通过灵活的分支组合能够更有效地提升特征表达能力。


  • 结论

    DBB模块通过创新的分支组合和动态卷积设计,为现有卷积架构提供了一种新的特征表达方式。它的设计理念不仅为模型性能提升提供了新思路,还通过等价嵌入的机制实现了推理阶段的高效性,适用于与现有卷积架构无缝集成的场景。

    如需了解更多技术细节或获取源码,请关注CVer公众号或联系对应作者。

    转载地址:http://crwsz.baihongyu.com/

    你可能感兴趣的文章
    NIO笔记---上
    查看>>
    NIO蔚来 面试——IP地址你了解多少?
    查看>>
    NISP一级,NISP二级报考说明,零基础入门到精通,收藏这篇就够了
    查看>>
    NISP国家信息安全水平考试,收藏这一篇就够了
    查看>>
    NIS服务器的配置过程
    查看>>
    Nitrux 3.8 发布!性能全面提升,带来非凡体验
    查看>>
    NiuShop开源商城系统 SQL注入漏洞复现
    查看>>
    NI笔试——大数加法
    查看>>
    NLog 自定义字段 写入 oracle
    查看>>
    NLog类库使用探索——详解配置
    查看>>
    NLP 基于kashgari和BERT实现中文命名实体识别(NER)
    查看>>
    NLP 模型中的偏差和公平性检测
    查看>>
    Vue3.0 性能提升主要是通过哪几方面体现的?
    查看>>
    NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
    查看>>
    NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
    查看>>
    NLP三大特征抽取器:CNN、RNN与Transformer全面解析
    查看>>
    NLP学习笔记:使用 Python 进行NLTK
    查看>>
    NLP度量指标BELU真的完美么?
    查看>>
    NLP的不同研究领域和最新发展的概述
    查看>>
    NLP的神经网络训练的新模式
    查看>>