attention机制 And 细粒度分类小结

mac2025-09-10  39

机器视觉的attention 机制

 

机器视觉的Attention概述

https://zhuanlan.zhihu.com/p/52925608

 

视觉中的Attention 学习的也是一个权重分布,将权重分布施加到原来的特征上,使用权重的方式有下面几种方式。

加权保存所有的分量做加权。可以在分布中以某种采样策略选取部分分量做加权(hard attention)加权可以作用在原图上加权可以作用在空间尺度上,给不同空间区域加权加权可以作用在Channel尺度上,给不同通道特征加权加权可以作用在不同时刻历史特征上,结合循环结构添加权重,例如前面两章节介绍的机器翻译,或者后期会关注的视频相关的工作。

下面是一些相关文献:

   Soft attention

      CVPR2017,Wang F等人提出了《Residual Attention Network for Image   Classification》这篇文章写得很不错,值得细读

CVPR2017,Hu J等人提出了《Squeeze-and-Excitation Networks》,ImageNet 2017竞赛 Image Classification任务的冠军;

ECCV2018,Sanghyun Woo等人提出了《CBAM: Convolutional Block Attention Module》

 

    神经网络中的attention机制,有两种第一种硬性,一种是软性的。

Hard Attention

Hard Attention 和 soft Attention 的区别

 

Soft Attention是依赖特征之间的关系学习权重,Hard Attention主要在局部特征区域进行随机crop的过程 Soft Attention可以嵌入到网络中应用Loss收敛学习权重,Hard Attention主要依赖强化学习训练权重(自然语言中有依赖蒙特卡罗方法),无法嵌入到网络中收敛学习;Soft Attention的特征采样权重经过Softmax处理以后,所有的权重大小在0~1之间,大部分是小数形式,特征关系的采集是特征值和权重的累积和;Hard Attention的特征采集权重一般是局部区域作为一个整体(权重可以理解为只有0, 1两个情况),局部特征之间的关系需要经过神经网络进一步学习。

 

细粒度

https://zhuanlan.zhihu.com/p/73542103

 

细粒度主要分成:细粒度识别,细粒度检索,细粒度生成。

细粒度识别有三个范式

用定位分类子网络进行细粒度识别

     研究人员为了定位关键部位,设计出了定位子网络。之后再连接一个用于识别的分类子网络。这两个子网络合作组成的框架就是第一个范式。根据定位子网络的信息。可以获得更多的辨别力的表征,可以进一步提高分类子网络的学习能力。

这类工作早期倚赖密集关键点的标注,这类早期方法被称为基于部位识别的方法。、

之后的工作主要集中在注意力机制[Yang et al.,2018]以及多阶段策略。

用端到端的特征编码进行细粒度识别

     这一类的主要开发用于细粒度识别的强大模型比如B-CNNS,来学习具有辨别力的表征表现, 最近也有一些尝试解决这一问题的工作,比如 [Gao et al.,2016;Kong 和 Fowlkes,2017;Cui et al.,2017],[Pham 和 Pagh,2013;Charikar et al.,2002] 试着用张量草图(tensor sketching)来聚合低维嵌入,该方法可以近似双线性特征,还可以保持相当程度或更高的准确率。其他工作,比如 [Dubey et al.,2018] 则专门为细粒度量身设计了特定的损失函数。

用外部信息进行细粒度识别

其中第一部分和第二部分是主要的部分

 

 

 

 

 

最新回复(0)