Mutual Learning to Adapt for Joint Human Parsing and Pose Estimation

2018-11-03 09:58:58

Paper: http://openaccess.thecvf.com/content_ECCV_2018/papers/Xuecheng_Nie_Mutual_Learning_to_ECCV_2018_paper.pdf

Code: https://github.com/NieXC/pytorch-mula

Related Paper: Deep mutual learning Codehttps://github.com/YingZhangDUT/Deep-Mutual-Learning

1. Background and Motivation:

本文提出一种模型 MuLA(Mutual Learning to Adapt)来调整模型,来更好的完成行人解析和姿态估计的问题。之所以会这么做,是因为这两个任务是可以相互协助,互相补充的:Human pose can offer structured information for body part segmentation and lebelling, and on the other hand human parsing can facilitate localizing body joints in difficult scenarios,如图 1 所示:

图 1 给出了案例,考虑到这两个任务之间的 mutual guidance information,可以有效的协助改善 parsing 和 localization 的精度。

受到该观察的启发,已经有工作开始借助这种引导信息,来改善这两个任务的性能。但是,现有的方法通常分别训练一个特定的模型,并且用这种引导信息来作为后期处理,从而有如下几个劣势:

1). 严重依赖于手工设计的特征;

2). 仅在 inference procedure 利用该 guidance information,而在 training stage 并没有增强模型的 capacity;

3). 前人工作都是 one-stop solutions,而不能迭代的增强模型,从而改善结果;

4). 这些模型都不是 end-to-end learning。

为了解决上述问题,本文提出一种 Mutual Learning to Adapt (MuLA)model 来充分,系统的探索 mutual guidance information。流程图如下所示,该 Mutual Adaptation Module 可以是一个迭代的过程,从而可能会学习到更好的表达。

2. The Details of MuLA

本文采用 来表示 parsing 和 pose models。带有星号 * 的下标表示 the parameters are adaptable to other task。然后本文所提出的 MuLA 模型可以表达成如下迭代学习的形式:

其中,t 表示的迭代次数。$\hat(S)$ 和 $\hat{J}$ 是 parsing 和 pose annotations,F  表示提取出来的特征。如图 2 所示,MuLA 是由三个部分构成的:a representation encoding module,  a mutual adaptation module and a classification module。 具体来说,the representation encoding module 是由两个 encoders 对特征进行转换,得到 high-level preliminary representations。the mutual adaptation module 的目标是调整参数,通过两个任务的辅助引导信息,使其增强原始的特征表达。受到 “Learning to Learn” framework 的启发,为了达到快速和高效的 adaptation,在函数 g'(*), h'(*) 的内部,我们设计了两个可学习的 adapters  ,来学习预测这些 adaptive parameters。对于可靠和鲁棒的参数预测,我们从 中得到最高层的表达,作为 mutual guidance information。也就是说,所设计的两个 adapters 将特征作为输入,然后输出调整后的参数,即:

此处,可以通过结合两个任务之间的互引导信息(mutual guidance information),制作原始的表达,以得到更好的解析和姿态估计的结果,并且用  来解码推导出来的 adaptive encoders in MuLA。The mutual adaptation module allows for dynamic interaction and cooperation between two tasks within MuLA for fully exploiting their mutual benefits。

MuLA 利用两个分类器根据 mutual adaptation module 来预测行人解析结果 $S_{(t)}$ 和姿态估计结果 $J_{(t)}$。为了迭代的探索 mutual guidance information,我们设计了两个 mapping modules 来特征表达以及预测结果映射到下一个阶段的输入,即:

为了训练 MuLA,我们在 human parsing 和 pose estimation 的任务上利用 GT 监督信息,并且定义了如下的损失函数:

其中,T 是 MuLA 的总迭代次数。第一个和 第二项损失函数,分别是 human parsing 和 pose estimation 的损失函数。

3. Experimental Results

==

论文笔记: Mutual Learning to Adapt for Joint Human Parsing and Pose Estimation的更多相关文章

  1. 【论文笔记】Learning Fashion Compatibility with Bidirectional LSTMs

    论文:<Learning Fashion Compatibility with Bidirectional LSTMs> 论文地址:https://arxiv.org/abs/1707.0 ...

  2. 论文笔记: Deep Learning based Recommender System: A Survey and New Perspectives

    (聊两句,突然记起来以前一个学长说的看论文要能够把论文的亮点挖掘出来,合理的进行概括23333) 传统的推荐系统方法获取的user-item关系并不能获取其中非线性以及非平凡的信息,获取非线性以及非平 ...

  3. 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

    来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predic ...

  4. 论文笔记:Learning wrapped guidance for blind face restoration

    这篇论文主要是讲人脸修复的,所谓人脸修复,其实就是将低清的,或者经过压缩等操作的人脸图像进行高清复原.这可以近似为针对人脸的图像修复工作.在图像修复中,我们都会假设退化的图像是高清图像经过某种函数映射 ...

  5. SfMLearner论文笔记——Unsupervised Learning of Depth and Ego-Motion from Video

    1. Abstract 提出了一种无监督单目深度估计和相机运动估计的框架 利用视觉合成作为监督信息,使用端到端的方式学习 网络分为两部分(严格意义上是三个) 单目深度估计 多视图姿态估计 解释性网络( ...

  6. 论文笔记:Learning Attribute-Specific Representations for Visual Tracking

    Learning Attribute-Specific Representations for Visual Tracking AAAI-2019 Paper:http://faculty.ucmer ...

  7. 论文笔记:Learning regression and verification networks for long-term visual tracking

    Learning regression and verification networks for long-term visual tracking 2019-02-18 22:12:25 Pape ...

  8. 论文笔记:Learning Dynamic Memory Networks for Object Tracking

    Learning Dynamic Memory Networks for Object Tracking  ECCV 2018Updated on 2018-08-05 16:36:30 Paper: ...

  9. 论文笔记:Learning how to Active Learn: A Deep Reinforcement Learning Approach

    Learning how to Active Learn: A Deep Reinforcement Learning Approach 2018-03-11 12:56:04 1. Introduc ...

随机推荐

  1. PDO连接数据库-Xmodel

    <?php/* * Copyright (c) 2018, 北京博习园教育科技有限公司 * All rights reserved. * * 文件名称: xmodel.php * 摘 要: 模型 ...

  2. arch 相关软件及脚本

    安装 arch 脚本 sudo pacman -S arch-install-scripts 安装 ssh  并开启服务 sudo pacman -S open-ssh vim /etc/ssh/ss ...

  3. 20175320 2018-2019-2 《Java程序设计》第3周学习总结

    20175320 2018-2019-2 <Java程序设计>第3周学习总结 教材学习内容总结 本周学习了教材的第四章的内容.在这章中介绍了面向对象编程的概念以及Java编程中的类与对象, ...

  4. Codeforces 455A - Boredom - [DP]

    题目链接:https://codeforces.com/problemset/problem/455/A 题意: 给出一个 $n$ 个数字的整数序列 $a[1 \sim n]$,每次你可以选择一个 $ ...

  5. angularjs实例

    <!DOCTYPE html> <html> <head> <meta charset="utf-8"> <script sr ...

  6. 消息系统kafka原理解析

    Kakfa起初是由LinkedIn公司开发的一个分布式的消息系统,后成为Apache的一部分,它使用Scala编写,以可水平扩展和高吞吐率而被广泛使用.目前越来越多的开源分布式处理系统如Clouder ...

  7. Web开发——jQuery基础

    参考: 参考W3School:jQuery 教程 参考:jQuery 参考手册 参考(常用):jQuery API 测试 JavaScript 框架库 - jQuery 测试 JavaScript 框 ...

  8. 一个少女心满满的例子带你入门canvas

    https://blog.csdn.net/sunshine940326/article/details/76572850 本文首发于我的个人博客:http://cherryblog.site/ gi ...

  9. Linux之SSH免密登录

    实验方法: 开启两台虚拟机A和B,IP地址分别为192.168.222.12.192.168.222.10 在虚拟机A下做如下操作,生成公钥和密钥: [root@localhost ~]# ssh-k ...

  10. aop execution 表达式解析

    execution(* com.sample.service.impl..*.*(..)) 解释如下: 符号 含义execution()表达式的主体:第一个”*“符号表示返回值的类型任意:com.sa ...