李飞飞徒弟Karpathy的著名博文The Unreasonable Effectiveness of Recurrent Neural Networks阐述了RNN(LSTM)的各种magic之处,并提供code实现简单的词生成. 原文地址;http://karpathy.github.io/2015/05/21/rnn-effectiveness/ Recurrent Neural Networks sequence Vanilla Neural Networks (and also Con…
论文信息 论文标题:Pseudo-Label : The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks论文作者:Dong-Hyun Lee论文来源:2013--ICML论文地址:download 论文代码:download视屏讲解:click 1 介绍 本文提出了一种简单有效的深度神经网络半监督学习方法.本文所提出的网络是在监督方式下同时使用标记和未标记数据进行训练.对于未标记数据,$\…
(1)主要工作内容 本文提出了一种基于轨迹预测法的欠驱动无人艇的全局运动规划算法.该方法考虑了无人艇的所有动力学约束,并且能找到一条根据船舶自身操纵系统进行跟踪的全局轨迹. 根据USV数学模型生成的预测轨迹被离散为一系列的路径点.采用A搜索方法找到可行轨迹. 为了提高搜索效率与准确性,将PTA算法改进为全局轨迹预测(GPTA).在寻找可行轨迹时,GPTA可以利用Theta获得的全局路径来准确估计目标函数的启发式代价,而不是像PTA那样直接使用欧氏距离.结果表明,GPTA对欠驱动USV的运动规划具…
paper:Gupta A , Johnson J , Fei-Fei L , et al. Social GAN: Socially Acceptable Trajectories with Generative Adversarial Networks[J]. 2018. code:https://github.com/agrimgupta92/sgan 概览 文章提出了一种采用GAN架构进行训练的轨迹预测模型,Generator由Encoder-Decoder结构组成,Discrimina…
目录 1. 网络资源 2. 简介 3. 自适应运算时间 3.1 有限运算时间 3.2 误差梯度 1. 网络资源 这篇文章的写作太随意了,读起来不是很好懂(掺杂了过多的技术细节).因此有作者介绍会更好. B站有视频:https://www.bilibili.com/video/av66005226/ 动机:RNN(LSTM,GRU等)在处理一句话时,对每一个token的计算量是相同的.然而事实上每一个token的重要性不一. 因此,本文考虑在另一个维度:在每个cell的内部,进行差异化改造. 2.…
整体流程与第一篇差不多,只是在encoder和decoder加入了RNN Encoder: 1. ai=xi+li ai=词向量+词在序列中的位置信息(相当于一个权重,[M, 1]) 流程: 先是CNN获取位置信息,然后再加上词向量,然后再通过LSTM 2. 常见的求注意力权重的方法 a. ht-1:RNN输出 流程: 通过LSTM进行编码,然后再求attention 3. 注意力累加 Decoder: 流程: 经过LSTM进行解码,然后再乘以个[cell_output_size, vocab_…
Introduction 在视频序列中,有些帧由于被严重遮挡,需要被尽可能的“忽略”掉,因此本文提出了时间注意力模型(temporal attention model,TAM),注重于更有相关性的帧. 常规的矩阵学习通常用特征的距离来进行计算,但忽视了帧之间的差异,上图可以看出,本文的方法考虑了相邻帧的空间差异,即空间循环模型(spatial recurrent model,SRM). The proposed method (1)总体框架: 输入的视频序列为:,输入为视频序列三元组,首先通过C…
博一下学期: 1.week1,2018.2.26 2006-Extreme learning machine: theory and applications 期刊来源:Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1-3): 489-501. 2.week2,2018.3.5 2017-3d-prnn: Generating…
论文地址:用于端到端语音增强的卷积递归神经网络 论文代码:https://github.com/aleXiehta/WaveCRN 引用格式:Hsieh T A, Wang H M, Lu X, et al. WaveCRN: An efficient convolutional recurrent neural network for end-to-end speech enhancement[J]. IEEE Signal Processing Letters, 2020, 27: 2149…
周五实验室有同学报告了ICCV2013的一篇论文group sparsity and geometry constrained dictionary learning for action recognition from depth maps.这篇文章是关于Sparsing Coding的.Sparse coding并不是我的研究方向.在此仅仅是做个文献阅读后的笔记,权当开拓下我的视野. 从标题就能够看出,这篇论文试图通过学习到group sparsity和geometry constrain…