Chronic sleep loss cannot be cured that easily Sleeping in on Saturday after a few weeks of too little shuteye may feel refreshing, but it can give a false sense of security. New research shows chronic sleep loss cannot be cured that easily. Scientis…
前面都是value based的方法,现在看一种直接预测动作的方法 Policy Based Policy Gradient 一个介绍 karpathy的博客 一个推导 下面的例子实现的REINFORCE算法 实例代码 import sys import gym import pylab import numpy as np from keras.layers import Dense from keras.models import Sequential from keras.optimize…
使用python接口来运行caffe程序,主要的原因是python非常容易可视化.所以不推荐大家在命令行下面运行python程序.如果非要在命令行下面运行,还不如直接用 c++算了. 推荐使用jupyter notebook,spyder等工具来运行python代码,这样才和它的可视化完美结合起来. 因为我是用anaconda来安装一系列python第三方库的,所以我使用的是spyder,与matlab界面类似的一款编辑器,在运行过程中,可以查看各变量的值,便于理解,如下图: 只要安装了anac…
小喵的唠叨话:前一篇博客,我们做完了L-Softmax的准备工作.而这一章,我们开始进行前馈的研究. 小喵博客: http://miaoerduo.com 博客原文:  http://www.miaoerduo.com/deep-learning/基于caffe的large-margin-softmax-loss的实现(中).html 四.前馈 还记得上一篇博客,小喵给出的三个公式吗?不记得也没关系. 这次,我们要一点一点的通过代码来实现这些公式.小喵主要是GPU上实现前后馈的代码,因为这个层只…
小喵的唠叨话:在写完上一次的博客之后,已经过去了2个月的时间,小喵在此期间,做了大量的实验工作,最终在使用的DeepID2的方法之后,取得了很不错的结果.这次呢,主要讲述一个比较新的论文中的方法,L-Softmax,据说单model在LFW上能达到98.71%的等错误率.更重要的是,小喵觉得这个方法和DeepID2并不冲突,如果二者可以互补,或许单model达到99%+将不是梦想. 再次推销一下~ 小喵的博客网址是: http://www.miaoerduo.com 博客原文:  http://…
什么是loss?   loss: loss是我们用来对模型满意程度的指标.loss设计的原则是:模型越好loss越低,模型越差loss越高,但也有过拟合的情况.   loss function: 在分类问题中,输入样本经过含权重矩阵θ的模型后会得出关于各个类别的分值,如何通过分值与样本的标签来得到我们对模型的满意程度就是Loss function的主要工作了.训练过程中通过调整参数矩阵θ来降低loss,使用模型更优.多分类问题中常用Softmax分类器与多类SVM分类器. Softmax分类器…
import re import pylab as pl import numpy as np if __name__=="__main__": accuracys=[] losses=[] with open(r'/home/wxl/bnscallog.txt','r') as f: lines=f.readlines(); print len(lines) str="".join(lines) str=str.replace('\n','') print len…
Back-propagation in a nerual network with a Softmax classifier, which uses the Softmax function: \[\hat y_i=\frac{\exp(o_i)}{\sum_j \exp(o_j)}\] This is used in a loss function of the form: \[\mathcal{L}=-\sum_j{y_j\log \hat y_j}\] where \(o\) is a v…
Do you feel like you've lost confidence in yourself? Have you had strong self doubts? Perhaps you were very successful once, but now, after 3+ years of recession, massive job losses, evaporation of retirement savings, a government that seems to not c…
实际上,代价函数(cost function)和损失函数(loss function 亦称为 error function)是同义的.它们都是事先定义一个假设函数(hypothesis),通过训练集由算法找出一个最优拟合,即通过使的cost function值最小(如通过梯度下降),从而估计出假设函数的未知变量. 例如: 可以看做一个假设函数,而与之对应的loss function如下: 通过使E(w)值最小,来估计出相应的w值,从而确定出假设函数(目标函数),实现最优拟合. 硬要说区别的话,l…