计算机视觉中的注意力机制

论坛 期权论坛 金融     
期权匿名问答   2022-7-7 02:00   5566   17
学长?
我是AIA的本科生,今年刚毕业
DETR
大佬
不敢当不敢当
您也是咱们学院的同学嘛
额算是吧,你本校读研?
是的
还在本院
博主您好,为什么我看很多资料,说CBAM和Non-Local都是属于self-attention的呢?它俩又各有什么不同和优缺点呢?
您好,我总结那个self-attention是基于NLP中的自注意力机制,然后刚好EDETR这篇文章使用的了transformer,CBAM应该是比较全面的,融合了多种注意力(通道注意力和空间注意力),但是non-local的是考虑到了特征图每个位置的,考虑到了其他像素点对这个像素的影响
博主,我是武汉大学多媒体中心公众号的运营人员,看到您的这篇文章特别好,想转载到我们的公众号,您看可以吗
可以的
Transformer那里 score=q*v,但是下面图片是score=q*k
图片和内容有点不匹配抱歉,谢谢指正
请问sqrt(dk)中的dk是啥?嘿嘿,没看到中文解释,能不能麻烦解释一下
key向量的维度,打的有问题,已经更新了dim key
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:392162
帖子:78433
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP