• 相关博文
  • 最新资讯
加载中...
  • 反向R?削弱显著特征为细粒度分类带来提升 | AAAI 2020

    论文提出了类似于dropout作用的diversification block,通过抑制特征图的高响应区域来反向提高模型的特征提取能力,在损失函数方面,提出专注于top-k类别的gradient-boosting loss来优化训练过程,模型在ResNet-50上提升3.2%,算法思路巧妙,结构易移植且效果也不错,值得学习。

    2020.02.03 0