首页
Python
Java
IOS
Andorid
NodeJS
JavaScript
HTML5
【
Transformer 学习
】的更多相关文章
EdgeFormer: 向视觉 Transformer 学习,构建一个比 MobileViT 更好更快的卷积网络
前言 本文主要探究了轻量模型的设计.通过使用 Vision Transformer 的优势来改进卷积网络,从而获得更好的性能. 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结.最新技术跟踪.经典论文解读.CV招聘信息. 论文:https://arxiv.org/abs/2203.03952 代码:https://github.com/hkzhang91/EdgeFormer 核心内容 本文主要探究了轻量模型的设计.通过使用 Vision Transformer 的优势来改进卷积…
ICCV2021 | TransFER:使用Transformer学习关系感知的面部表情表征
前言 人脸表情识别(FER)在计算机视觉领域受到越来越多的关注.本文介绍了一篇在人脸表情识别方向上使用Transformer来学习关系感知的ICCV2021论文,论文提出了一个TransFER模型,在几个FER基准数据集上取得了SOTA性能. 本文来自公众号CV技术指南的论文分享系列 关注公众号CV技术指南 ,专注于计算机视觉的技术总结.最新技术跟踪.经典论文解读. Background 在过去的几十年里,面部表情识别(FER)在计算机视觉研究领域受到了越来越多的关注,因为它对于让计…
Transformer 学习
https://www.bilibili.com/video/av65521101/?p=98 (李宏毅,视频讲解,可以作为基础入门) 课件:https://pan.baidu.com/s/1Shjn2el7gr3RPNlUTnBtxw https://www.jianshu.com/p/feaf7138c847 (Transformer 的encoder 部分,讲解的浅显易懂) https://zhuanlan.zhihu.com/p/50217835 (草稿纸上的Transformer,某些…
深入浅出Transformer
Transformer Transformer是NLP的颠覆者,它创造性地用非序列模型来处理序列化的数据,而且还获得了大成功.更重要的是,NLP真的可以"深度"学习了,各种基于transformer的模型层出不穷,如BERT.GPT-2.T-NLG,而且模型参数量呈指数级增长. Transformer之前,大家的思路都是在改进序列模型,从RNN到LSTM.GRU.Seq2Seq.如果你看过我之前写的深入浅出RNN就会知道,序列模型要靠遍历seq_len来处理data,效率低是显而易见的…
ICCV2021 | Vision Transformer中相对位置编码的反思与改进
前言 在计算机视觉中,相对位置编码的有效性还没有得到很好的研究,甚至仍然存在争议,本文分析了相对位置编码中的几个关键因素,提出了一种新的针对2D图像的相对位置编码方法,称为图像RPE(IRPE). 本文来自公众号CV技术指南的论文分享系列 关注公众号CV技术指南 ,专注于计算机视觉的技术总结.最新技术跟踪.经典论文解读. 代码:https://github.com/microsoft/Cream/tree/main/iRPE Background Transformer的核心是self-…
ICCV2021 | PnP-DETR:用Transformer进行高效的视觉分析
前言 DETR首创了使用transformer解决视觉任务的方法,它直接将图像特征图转化为目标检测结果.尽管很有效,但由于在某些区域(如背景)上进行冗余计算,输入完整的feature maps的成本会很高. 在这项工作中,论文将减少空间冗余的思想封装到一个新的轮询和池(Poll and Pool, PnP)采样模块中,该模块具有通用和即插即用的特点,利用该模块构建了一个端到端的PnP-DETR体系结构,该体系结构可以自适应地在空间上分配计算,以提高计算效率. 本文来自公众号CV技术指南的…
ICCV2021 | SOTR:使用transformer分割物体
前言 本文介绍了现有实例分割方法的一些缺陷,以及transformer用于实例分割的困难,提出了一个基于transformer的高质量实例分割模型SOTR. 经实验表明,SOTR不仅为实例分割提供了一个新的框架,还在MS Coco数据集上超过了SOTA实例分割方法. 本文来自公众号CV技术指南的论文分享系列 关注公众号CV技术指南 ,专注于计算机视觉的技术总结.最新技术跟踪.经典论文解读. 论文:SOTR: Segmenting Objects with Transformers 代码:h…
You Only Look One-level Feature
你只需要看一个层次的特征 摘要:本文回顾了单阶段检测器的特征金字塔网络(FPN),指出FPN的成功在于其对目标检测优化问题的分治解决,而不是多尺度特征融合.从优化的角度来看,我们引入了一种替代的方法来解决这个问题,而不是采用复杂的特征金字塔,这个方法就是利用一个层次的特征进行检测.在简单有效的基础上,提出了You Only Look One-level Feature (YOLOF).在我们的方法中,提出了两个关键组件,膨胀编码器和均匀匹配,并带来了相当大的改进.在COCO基准上的大量实验证明了…
ML2021 | (腾讯)PatrickStar:通过基于块的内存管理实现预训练模型的并行训练
前言 目前比较常见的并行训练是数据并行,这是基于模型能够在一个GPU上存储的前提,而当这个前提无法满足时,则需要将模型放在多个GPU上.现有的一些模型并行方案仍存在许多问题,本文提出了一种名为PatrickStar的异构训练系统.PatrickStar通过以细粒度方式管理模型数据来更有效地使用异构内存,从而克服了这些缺点. 本文附上了PatrickStar的使用示例.PatrickStar与模型定义无关,在PyTorch脚本上添加几行代码可以带来端到端的加速. 本文来自公众号CV技术指南…
计算机视觉--CV技术指南文章汇总
前言 本文汇总了过去本公众号原创的.国外博客翻译的.从其它公众号转载的.从知乎转载的等一些比较重要的文章,并按照论文分享.技术总结三个方面进行了一个简单分类.点击每篇文章标题可阅读详细内容 欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结.最新技术跟踪.经典论文解读. 今年是进入计算机视觉领域的第四年,做公众号的第一年,写了不少原创文章,从国外博客上翻译了不少我认为比较不错的文章,也从知乎上找了不少不错的文章在经作者授权后转载到公众号. 整体上来说,这一年基本保持初心,始终在做一…