four approachs can cross domain in javascript 1.jsonp 2.document.domain(only in frame and they have one same parent domain) 3.window.name 4.window.postMessage(only in Html5) original website:http://www.cnblogs.com/2050/p/3191744.html…
论文信息 论文标题:Cross-domain Contrastive Learning for Unsupervised Domain Adaptation论文作者:Rui Wang, Zuxuan Wu, Zejia Weng, Jingjing Chen, Guo-Jun Qi, Yu-Gang Jiang论文来源:aRxiv 2022论文地址:download 论文代码:download 1 Introduction 无监督域自适应(UDA)的目的是将从一个完全标记的源域学习到的知识转移到…
论文信息 论文标题:CDTrans: Cross-domain Transformer for Unsupervised Domain Adaptation论文作者:Tongkun Xu, Weihua Chen, Pichao Wang, Fan Wang, Hao Li, Rong Jin论文来源:ICLR 2022论文地址:download 论文代码:download 1 Introduction 无监督域自适应(Unsupervised domain adaptation,UDA)的目的…
论文信息 论文标题:Contrastive Adaptation Network for Unsupervised Domain Adaptation论文作者:Guoliang Kang, Lu Jiang, Yi Yang, Alexander G Hauptmann论文来源:CVPR 2019论文地址:download 论文代码:download 1 Preface 出发点: 无监督域自适应(UDA)对目标域数据进行预测,而标签仅在源域中可用: 以往的方法将忽略类信息的域差异最小化,可能导致…
论文信息 论文标题:ToAlign: Task-oriented Alignment for Unsupervised Domain Adaptation论文作者:Guoqiang Wei, Cuiling Lan, Wenjun Zeng, Zhizheng Zhang, Zhibo Chen论文来源:NeurIPS 2021论文地址:download 论文代码:download 1 域对抗介绍 域对抗思想: $\begin{array}{l}\underset{D}{\operatornam…
本文尽量贴合BERT的原论文,但考虑到要易于理解,所以并非逐句翻译,而是根据笔者的个人理解进行翻译,其中有一些论文没有解释清楚或者笔者未能深入理解的地方,都有放出原文,如有不当之处,请各位多多包含,并希望得到指导和纠正. 论文标题 Bert:Bidirectional Encoder Representations from Transformers 一种从Transformers模型得来的双向编码表征模型. 论文地址 https://arxiv.org/pdf/1810.04805 Abstr…
论文<BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding> 以下陆续介绍bert及其变体(介绍的为粗体) bert自从横空出世以来,引起广泛关注,相关研究及bert变体/扩展喷涌而出,如ELECTRA.DistilBERT.SpanBERT.RoBERTa.MASS.UniLM.ERNIE等. 由此,bert的成就不仅是打破了多项记录,更是开创了一副可期的前景. 1, Bert 在看b…
CVPR2020论文解读:三维语义分割3D Semantic Segmentation xMUDA: Cross-Modal Unsupervised Domain Adaptation  for 3D Semantic Segmentation 摘要 无监督域自适应(UDA)对于解决新域中缺少注释的问题至关重要.有许多多模态数据集,但大多数UDA方法都是单模态的.在这项工作中,我们探索如何从多模态学*,并提出跨模态UDA(xMUDA),其中我们假设存在二维图像和三维点云进行三维语义分割.这是一…
图像分类:CVPR2020论文解读 Towards Robust Image Classification Using Sequential Attention Models 论文链接:https://arxiv.org/pdf/1912.02184.pdf 摘要 在这篇文章中,我们提出用一个受人类感知启发的注意力模型来扩充一个现代的神经网络结构.具体地说,我们对一个神经模型进行了逆向训练和分析,该模型包含了一个受人启发的视觉注意成分,由一个自上而下的循环顺序过程引导.我们的实验评估揭示了关于这个…
NLP论文解读 原创•作者 | 小欣   论文标题:PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction 论文链接:https://arxiv.org/pdf/2106.09895.pdf 代码:https://github.com/hy-struggle/PRGC 1.前言 1. 论文的相关背景 关系抽取是信息抽取和知识图谱构建的关键任务之一,它的目标是从非结构化的…