论文研读Unet++】的更多相关文章

Unet++: A Nested U-Net Architecture for Medical Image Segmentation Unet++ 论文地址 这里仅进行简要介绍,可供读者熟悉其结构与特点,若想更为深入的了解,可以阅读原论文和参考文献. 在计算机视觉领域,全卷积网络(FCN)是比较有名的图像分割网络,在医学图像处理方向,U-net更是一个炙手可热的网络,基本上所有的分割问题,我们都会拿U-Net先看一下基本的结果,然后进行修改.和FCN相比,U-Net的第一个特点是完全对称,也就是…
EARLY PREDICTION OF ALZHEIMER'S DISEASE DEMENTIA BASED ON BASELINE HIPPOCAMPAL MRI AND 1-YEAR FOLLOW-UP COGNITIVE MEASURES USING DEEP RECURRENT NEURAL NETWORKS (基于基础海马MRI和1年随访认知测量的阿尔茨海默病痴呆早期预测) 原文链接 摘要 多模生物学.影像学和神经心理学标记物已经展示了区分阿尔茨海默病(AD)患者和认知正常的老年人的良…
A Deep Learning Model to Predict a Diagnosis of Alzheimer Disease by Using 18F-FDG PET of the Brain 原文链接 提要 目的 开发并验证一种深度学习算法,该算法可以基于脑部18F FDG PET来预测AD.轻度认知障碍或者二者均不是的诊断结果,并将其性能与放射学阅读器的性能进行比较 材料和方法 来自ADNI的18F-FDG PET脑图(含2109张图片,包括1002个病人)用于训练.验证,40张来自4…
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 原文链接 摘要 向传统体系结构中引入残差连接使网络的性能变得更好,这提出了一个问题,即将Inception架构与残差连接结合起来是否能带来一些好处.在此,研究者通过实验表明使用残差连接显著地加速了Inception网络的训练.也有一些证据表明,相比没有残差连接的消耗相似的Inception网络,残差Inception网络在性能上具有微…
Rethinking the Inception Architecture for Computer Vision 原文链接 摘要 卷积网络是目前最新的计算机视觉解决方案的核心,对于大多数任务而言,虽然增加的模型大小和计算成本都趋向于转化为直接的质量收益(只要提供足够的标注数据去训练),但计算效率和低参数计数仍是各种应用场景的限制因素.目前,我们正在探索增大网络的方法,目标是通过适当的分解卷积和积极的正则化来尽可能地有效利用增加的计算 引言 深度卷积架构上的架构改进可以用来改善大多数越来越多地依…
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 原文链接 摘要 当前神经网络层之前的神经网络层的参数变化,引起神经网络每一层输入数据的分布产生了变化,这使得训练一个深度神经网络变得复杂.这样就要求使用更小的学习率,参数初始化也需要更为谨慎的设置.并且由于非线性饱和(注:如sigmoid激活函数的非线性饱和问题),训练一个深度神经网络会非常困难.我们称这个现象为…
Going deeper with convolutions 原文链接 摘要 研究提出了一个名为"Inception"的深度卷积神经网结构,其目标是将分类.识别ILSVRC14数据集的技术水平提高一个层次.这一结构的主要特征是对网络内部计算资源的利用进行了优化.这一目标的实现是通过细致的设计,使得在保持计算消耗稳定不变的同时增加网络的宽度与深度 引言 在物体识别方面,最大的收获其实并不来自于深度网络或是大型模型的单独使用,而是来自深度结构和传统机器视觉的协同作用,比如R-CNN算法 此…
Alexnet - 论文研读个人笔记 一.论文架构 摘要: 简要说明了获得成绩.网络架构.技巧特点 1.introduction 领域方向概述 前人模型成绩 本文具体贡献 2.The Dataset 数据集来源,训练数据进行的一些预处理 3.The Architecture 网络模型大体组成 ReLU Training on Multiple GPUs LRN (Local Response Normalization) Overlapping Pooling 网络模型整个具体架构 4.Redu…
MapReduce 论文研读 说明:本文为论文 <MapReduce: Simplified Data Processing on Large Clusters> 的个人理解,难免有理解不到位之处,欢迎交流与指正 . 论文地址:MapReduce Paper 1. MapReduce 编程模型 MapReduce 是 Google 提出的一种用于处理和生成大数据集的 编程模型 ,具象地可以理解成一个 框架 . 该框架含有两个由用户来实现的接口:map 和 reduce ,map 函数接收一个键…
VM-FT 论文研读 说明:本文为论文 <The Design of a Practical System for Fault-Tolerant Virtual Machines> 的个人理解,难免有理解不到位之处,欢迎交流与指正 . 论文地址:VM-FT 论文 本文的总结包括论文内容以及 MIT6.824 Lec4 中的授课内容,其中包含了论文中没有提及的一些细节 . 1. 前言 本论文主要介绍了一个用于提供 容错虚拟机 (fault-tolerant virtual machine) 的企…
论文地址:Video2GIF: Automatic Generation of Animated GIFs from Video 视频的结构化分析是视频理解相关工作的关键.虽然本文是生成gif图,但是其中对场景RankNet思想值得研究. 文中的视频特征表示也是一个视频处理值得学习的点.以前做的视频都是基于单frame,没有考虑到时空域,文中的参考文献也值得研读一下. 以下是对本文的研读,英语水平有限,有些点不知道用汉语怎么解释,直接用的英语应该更容易理解一些. Abstract 从源视频当中提…
越简单越接近本质. 参考资料 U-Net: Convolutional Networks for Biomedical Image Segmentation Abstract & Introduction 论文中有几个关键词: contracting path 收缩路径: expansive path 扩张路径: precise localization 更精确的位置信息: overlap-tile 边界镜像翻转: random elastic deformations 随机弹性形变: inva…
Zookeeper 研读 说明:本文为论文 < ZooKeeper : Wait-free coordination for Internet-scale systems > 的个人理解,难免有理解不到位之处,欢迎交流与指正 . 论文地址:Zookeeper Paper 1. Zookeeper 介绍 Zookeeper 是用来协调分布式应用的服务框架,它是一个通过冗余容灾的服务器集群,提供 API 给 client ,用以实现一些 原语( 如配置管理.成员管理.领导人选举.分布式锁等 ),在…
Deep Residual Learning for Image Recognition 原文链接 摘要 深度神经网络很难去训练,本文提出了一个残差学习框架来简化那些非常深的网络的训练,该框架使得层能根据其输入来学习残差函数而非原始函数.本文提出证据表明,这些残差网络的优化更简单,而且通过增加深度来获得更高的准确率 引言 深度网络很好的将一个端到端的多层模型中的低/中/高级特征以及分类器整合起来,特征的等级可以通过所堆叠层的数量来丰富.有结果显示,模型的深度发挥着至关重要的作用 在深度的重要性的…
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION 论文地址 摘要 研究主要贡献是通过非常小的3x3卷积核的神经网络架构全面评估了增加深度对网络的影响,结果表明16-19层的网络可以使现有设置的网络性能得到显著提高 引言 为得到更好的准确率,在本文中,研究着眼于卷积神经网络中的深度问题.为此,固定了架构中的其他参数,并通过添加卷积层稳定地增加网络深度,在每层都使用非常小的3x3卷积核 ConvNet配置 为了公平衡…
论文:Using Paxos to Build a Scalable, Consistent, and Highly Available Datastore Motivation 可扩展性: 随着数据量增加, 要求增加新的设备存放数据. 一种做法就是将数据库 按Key拆分, 分布在不同机器上, 每个机器负责一定Key范围内的数据. 而手动实现拆分繁琐, 容易出现问题. 所以需要一种架构支持拆分. 容错性: 数据库保存在成百上千的普通机器上, 因此非常容易出现问题. 为了保证高可用性, 必须实现容…
最近在学习斯坦福2017年秋季学期的<强化学习>课程,感兴趣的同学可以follow一下,Sergey大神的,有英文字幕,语速有点快,适合有一些基础的入门生. 今天主要总结上午看的有关DQN的一篇论文<Human-level control through deep reinforcement learning>,在Atari 2600 games上用DQN网络训练的,训练结果明,DQN能够比较稳定的收敛到Human-level的游戏水平. 前言 目前,强化学习已经在现实中很多复杂的…
GFS 论文总结 说明:本文为论文 <The Google File System> 的个人总结,难免有理解不到位之处,欢迎交流与指正 . 论文地址:GFS Paper 阅读此论文的过程中,感觉内容繁多且分散,一个概念的相关内容在不同部分相交地出现 .所以本文尽量将同一概念的相关内容串联并总结在一起 . 本文以批注的形式添加个人理解 . 1. 前言 Google File System (GFS) 是由 Google 设计并实现的.一个面向大规模数据密集型应用的分布式文件系统,它不仅满足所有分…
摘要 本文提出了一种用于训练支持向量机的新算法:序列最小优化算法(SMO).训练支持向量机需要解决非常大的二 次规划(QP)优化问题.SMO 将这个大的 QP 问题分解为一系列最小的 QP 问题.这些小的 QP 问题可以通过解析来解决, 从而避免了将耗时的数值 QP 优化用作内部循环.SMO 所需的内存量与训练集大小成线性关系,这使 SMO 可以处理非常大 的训练集.由于避免了矩阵计算,因此对于各种测试问题,SMO 随训练集大小在线性和二次方之间缩放,而标准分块 SVM 算法随训练集大小在线性和…
[论文简析]How Do Vision Transformers Work?[2202.06709] 论文题目:How Do Vision Transformers Work? 论文地址:http://arxiv.org/abs/2202.06709 代码:https://github.com/xxxnell/how-do-vits-work ICLR2022 - Reviewer Kvf7: 这个文章整理的太难懂了 很多trick很有用,但是作者并没有完全说明 行文线索 Emporocal O…
转移性学习对阿尔茨海默病分类的研究 原文链接 摘要 将cv用于研究需要大量的训练图片,同时需要对深层网络的体系结构进行仔细优化.该研究尝试用转移学习来解决这些问题,使用从大基准数据集组成的自然图像得到的预训练权重来初始化最先进的VGG和Inception结构,使用少量的MRI图像来重新训练全连接层.采用图像熵选择最翔实的切片训练,通过对OASIS MRI数据集的实验,他们发现,在训练规模比现有技术小近10倍的情况下,他们的性能与现有的基于深层学习的方法相当,甚至更好 介绍 AD的早期诊断可以通过…
#摘要 错误信息通过合成逼真的图像和视频进行传播这一严重问题,需要鲁棒的篡改检测方法来应对.尽管在检测静止图像上的面部篡改方面已付出了巨大的努力,但人们对于通过利用视频流中存在的时序信息,对视频中被篡改面部的识别方面的研究较少.循环卷积模型是一类深度学习模型,已证明能够有效地利用跨域图像流中的时序信息.因此,我们通过广泛的实验,提出了将这些模型中的变化与特定领域的面部预处理技术相结合的最佳策略(根据后文应该是面部对齐和CNN (DenseNet) + bidirectional RNN),从而在…
Raft 论文研读 说明:本文为论文 < In Search of an Understandable Consensus Algorithm (Extended Version) > 的个人理解,难免有理解不到位之处,欢迎交流与指正 . 论文地址:Raft Paper 1. 复制状态机 复制状态机 (Replicated state machine) 方法在分布式系统中被用于解决 容错问题 ,这种方法中,一个集群中各服务器有相同状态的副本,并且在一些服务器宕机的情况下也可以正常运行 . 如上…
个人简介 潘旻琦:我是潘旻琦:我的爱好是游泳:羊肉泡馍是海大食堂中我最喜欢的一道菜(清真食堂):一句想说的话是:“追随本心,坚持不懈”. 郭念帆:我是郭念帆:我的爱好是足球:海大食堂中最喜欢的一道菜偏向于三餐的自选:想说的一句话是“希望我们都能够年少有为不自卑”. 刘杰:我是刘杰,我的爱好是发呆,我喜欢旋转小火锅(二餐二层),我不想当码农(→_→). 王成贺:我是王成贺,我的爱好的是吃肉听歌玩游戏,我最喜欢东区阿坤羊肉馆的肥牛拌饭.希望每天都能开心. 王健:我是王健:我的爱好是玩:我最喜欢烤香鸡…
由于智力的问题,百度之星完全lu不动..开场看第一题根据题目给的条件我觉得一定是可以构造出来的,题目给的意思颇有鸽巢原理的感觉,于是觉得开场第一题应该就是智力构造题了,想了半个小时,发现完全想不动,于是只能放弃了去想后面的题. 然后看第二题的数据结构,树上的询问,支持点修改,询问子树和,还有换根,然后心里想,我擦,这不是LCT么,但是我没学呀,然后细心的翻出之前打印的论文研读了很久,发现普通的LCT只能解决询问树路径上的东西,然后看论文上写如果支持子树操作的话就需要Euler-tour-tree…
Deep learning:二十九(Sparse coding练习) Deep learning:二十八(使用BP算法思想求解Sparse coding中矩阵范数导数) Deep learning:二十七(Sparse coding中关于矩阵的范数求导) Deep learning:二十六(Sparse coding简单理解)   注意与降维的区别,而且这也是个深坑! 稀疏表达(sparse representation) 这个东西好,原因之一是更接近生物的认知过程. 八(Sparse Auto…
人工智能成为当下科技发展的代表之一,持续受到了不少追捧,不管你是否是这一专业的学生或者职场人,学习并掌握一项新潮技能总是不会被同龄人淘汰的.我曾经问过别人.也被别人问过关于学习人工智能(AI)最好的方式是什么?我应该去阅读什么书?我应该去看什么视频?尝试过很多方法,也做了很多的学习路径规划. 实际上,人工智能研究在本质上是学术性的,在你能够获得人工智能的某些细节之前,需要掌握大量的跨各类学科的知识. 不论你找到了怎样的学习方法,扩展阅读总是必要的,因为当下的一些人工智能网课普遍忽视了原始论文的相…
前面介绍了两个文本检测的网络,分别为RRCNN和CTPN,接下来鄙人会介绍语义分割的一些经典网络,同样也是论文+代码实现的过程,这里记录一下自己学到的东西,首先从论文下手吧. 英文论文原文地址:https://arxiv.org/abs/1505.04597 前面的论文忘记介绍大佬的名字了,在这里先抱个歉...那么接下来有请提出U-Net的大佬们一一列席:Olaf Ronneberger, Philipp Fischer, and Thomas Brox 这里依次是三位大佬的主页   https…
目录 0. 前言 1. 第一篇 2. 第二篇 3. 第三篇keras实现 4. 一篇关于U-Net的改进 0. 前言   今天读了U-Net觉得很不错,同时网上很多很好很详细的讲解,因此就不再自己写一个overview了,互联网的意义就是给了我们相互学习,相互借鉴的黄金机会(懒惰完美的接口). 1. 第一篇 1. 按论文章节回顾具体内容 1. Abstract   在本文中我们提出了一种网络结构和训练策略,它依赖于充分利用数据增强技术来更高效地使用带有标签的数据.在U-net的结构中,包括捕获一…
最近认真的研读了这篇关于降噪的论文.它是一种利用混合模型降噪的方法,即既利用了生成模型(MoG高斯模型),也利用了判别模型(神经网络NN模型).本文根据自己的理解对原理做了梳理. 论文是基于"Speech Enhancement Using a Mixture-Maximum Model"提出的MixMAX模型的.假设噪声是加性噪声,干净语音为x(t),噪声为y(t),则在时域带噪语音z(t)可以表示为z(t) = x(t) + y(t).对z(t)做短时傅里叶变换(STFT)得到Z(…