题记:最近在做LLL(Life Long Learning),接触到了SSL(Semi-Supervised Learning)正好读到了谷歌今年的论文,也是比较有点开创性的,浅显易懂,对比实验丰富,非常适合缺乏基础科学常识和刚刚读研不会写论文的同学读一读,触类旁通嘛. 这篇论文思路等等也非常适合刚刚开始做学术时候写文论参考使用,你看,它有创造性(半监督学习用在了目标检测上),理论基础扎实(体现在专业词汇丰富,也介绍了其他相关论文,做个小综述论文都够了),工作量够够的(大量的对比试验),实验效果…
论文信息 论文标题:Sub-graph Contrast for Scalable Self-Supervised Graph Representation Learning论文作者:Yizhu Jiao, Yun Xiong, Jiawei Zhang, Yao Zhang, Tianqi Zhang, Yangyong Zhu论文来源:2020 ICDM论文地址:download 论文代码:download 1 Introduction 创新点:提出一种新的子图对比度自监督表示学习方法,利用…
目录 写在前面 目标检测任务与挑战 目标检测方法汇总 基础子问题 基于DCNN的特征表示 主干网络(network backbone) Methods For Improving Object Representation Context Modeling Detection Proposal Methods Other Special Issues Datasets and Performance Evaluation 博客:blog.shinelee.me | 博客园 | CSDN 写在前面…
[论文解读] 阿里DIEN整体代码结构 目录 [论文解读] 阿里DIEN整体代码结构 0x00 摘要 0x01 文件简介 0x02 总体架构 0x03 总体代码 0x04 模型基类 4.1 基本逻辑 4.2 模块分析 4.2.1 构建变量 4.2.2 构建embedding 4.2.3 拼接embedding 0x05 Model_DIN_V2_Gru_Vec_attGru_Neg 5.1 第一层 'rnn_1' 5.1.1 GRU 5.1.2 辅助损失 5.1.3 mask的作用 Paddin…
1.强化学习 @ 目录 1.强化学习 1.1 强化学习原理 1.2 强化学习与监督学习 2.无监督学习 3.半监督学习 4.对抗学习 强化学习(英语:Reinforcement Learning,简称RL)是机器学习中的一个领域,是除了监督学习和非监督学习之外的第三种基本的机器学习方法. 强调如何基于环境而行动,以取得最大化的预期利益[1]. 与监督学习不同的是,强化学习不需要带标签的输入输出对,同时也无需对非最优解的精确地纠正. 1.1 强化学习原理 强化学习是从动物学习.参数扰动自适应控制等…
自监督学习(Self-Supervised Learning)多篇论文解读(下) 之前的研究思路主要是设计各种各样的pretext任务,比如patch相对位置预测.旋转预测.灰度图片上色.视频帧排序等等.CVPR19和ICCV19上,Google Brain的几个研究员发表了两篇论文,从另外的视角分析和研究self-supervised learning问题.两篇paper名字分别是:Revisiting Self-Supervised Visual Representation Learnin…
自监督学习(Self-Supervised Learning)多篇论文解读(上) 前言 Supervised deep learning由于需要大量标注信息,同时之前大量的研究已经解决了许多问题.所以近期大家的研究关注点逐渐转向了Unsupervised learning,许多顶会包括ICML, NeurIPS, CVPR, ICCV相继出现一些不错的paper和研究工作. 这里主要关注Unsupervised learning一类特定的方法:Self-supervised learning(自…
论文信息 论文标题:Shift-Robust GNNs: Overcoming the Limitations of Localized Graph Training Data论文作者:Qi Zhu, Natalia Ponomareva, Jiawei Han, Bryan Perozzi论文来源:2021, NeurIPS论文地址:download 论文代码:download 1 Introduction 半监督学习通过使用数据之间的关系(即边连接关系,会产生归纳偏差),以及一组带标签的样本…
论文信息 论文标题:Rethinking the Setting of Semi-supervised Learning on Graphs论文作者:Ziang Li, Ming Ding, Weikai Li, Zihan Wang, Ziyu Zeng, Yukuo Cen, Jie Tang论文来源:2022, arXiv论文地址:download 论文代码:download 1 Introduction 本文主要研究半监督GNNs 模型存在的超调现象(over-tuning phenom…
标签: 半监督学习 作者:炼己者 欢迎大家访问 我的简书 以及 我的博客 本博客所有内容以学习.研究和分享为主,如需转载,请联系本人,标明作者和出处,并且是非商业用途,谢谢! --- 摘要:半监督学习很重要,为什么呢?因为人工标注数据成本太高,现在大家参加比赛的数据都是标注好的了,那么如果老板给你一份没有标注的数据,而且有几百万条,让你做个分类什么的,你怎么办?不可能等标注好数据再去训练模型吧,所以你得会半监督学习算法. 不过我在这里先打击大家一下,用sklearn的包做不了大数据量的半监督学习…