Theano 学习笔记(一)

theano
  1. 为什么要定义共享变量?

    定义共享变量的原因在于GPU的使用,如果不定义共享的话,那么当GPU调用这些变量时,遇到一次就要调用一次,这样就会花费大量时间在数据存取上,导致使用GPU代码运行很慢,甚至比仅用CPU还慢。

  2. 共享变量的类型必须为floatX

    因为GPU要求在floatX上操作,所以所有的共享变量都要声明为floatX类型

  1. shared_x = theano.shared(numpy.asarray(data_x, dtype=theano.config.floatX)) 


  2. self.A = theano.shared(name = "A", value = E.astype(theano.config.floatX)) 

  1. 创建tensor variables

    在创建变量时可以给变量命名,命名能够加快debugging的过程,所有的构造器中都有name参数供命名,下面三种创建变量的方式都是创建一个整型的标量,命名为‘myvar’

  1. x = scalar('myvar',dtype='int32') 

  2. x = iscalar('myvar') 

  3. x = TensorType(dtype = 'int32', broadcastable=())('myvar') 

典型构造器

  1. theano.tensor.scalar(name=None,dtype=config.floatX) 

  2. theano.tensor.vector(name=None,dtype=config.floatX) 

  3. theano.tensor.row(name=None, dtype=config.floatX) 

  4. theano.tensor.col(name=None,dtype=config.floatX) 

  5. theano.tensor.matrix(name=None,dtype=config.floatX) 

  6. theano.tensor.tensor3(name=None,dtype=config.floatX) #3D张量 

  7. theano.tensot.tensor4(name=None,dtype=config.floatX) #4D张量 

导入的命名空间 from theano.tensor import *

  1. 创建新的Tensor Type

  1. dtensor5 = TensorType('float64',(False,)*5) 

  2. x=dtensor5() 

  3. z=dtensor5('z') 

  1. Theano requires that the inputs to all expressions be Variable instances, so Theano automatically wraps them in a TensorConstant. Thus, when you use a numpy ndarray or a python number together with TensorVariable instances in arithmetic expressions, the result is a TensorVariable.

  2. broadcastable

    这个东西是一个布尔有元素组成的元组,比如[False,True,False]等

    broadcastable 一方面指定了类型的大小,另一方面也指定了那个维度上size只能为1(True,表示对应维度上长度只能为1,matlab: size(A,broadcasrable(i)==True)=1)

  1. [] scalar 

  2. [True] 1D scalar (vector of length 1) 

  3. [True, True] 2D scalar (1x1 matrix) 

  4. [False] vector 

  5. [False, False] matrix 

  6. [False] * n nD tensor 

  7. [True, False] row (1xN matrix) 

  8. [False, True] column (Mx1 matrix) 

  9. [False, True, False] A Mx1xP tensor (a) 

  10. [True, False, False] A 1xNxP tensor (b) 

  11. [False, False, False] A MxNxP tensor (pattern of a + b) 

For dimensions in which broadcasting is False, the length of this dimension can be 1 or more.

For dimension in which broadcasting is True, the length of this dimension must be 1.

另外,broadcastable,顾名思义,与传播运算有关,当两个维度不同的参数进行元素运算时,broadcastable pattern 可以通过在tuple的左侧填充True,凑齐维度。

比如 a vector's pattern [False],可以扩展成 [True, False]; a matrix pattern [False,False]可以扩展成 [True, False,False]

然后对应的True维度上就可以broad了

这样学起来实在是太慢了。。。。。。。。。。。

总觉得python乱,还是读代码吧,边读边学。。。

  1. import theano 

  2. import theano.tensor as T 

  3. x=T.matrix('x') 

  4. s=1/(1+t.exp(-x)) 

  5. logistic = theano.function([x],s) 

  6. logistic([[1,2,3],[4,3,0.5]]) 

结果

1479475790674.jpg

学到的点:

  • 声明符号变量x,名称为'x',这个我们也说了主要是为了GPU调度方便

  • +,-,*,/,包括exp等函数都是元素操作的

  • logistic相当于一个函数句柄,这个函数的输入是x,输出是s, x到s的关系根据前面定义可得

  1. import theano 

  2. import theano.tensor as T 

  3. a,b=T.matrices('a','b') 

  4. diff = a-b 

  5. abs_diff = abs(diff) 

  6. diff_squared = diff**2 

  7. f = theano.function([a,b],[diff,abs_diff,diff_squared]) 

点:

  • theano 可以定义多输入多输出,类似的matlab代码

  1. function [diff,abs_diff,diff_squared]=f(a,b) 

  2. ... 

  3. end 

  • matrices 是同时声明参数个数个变量,类似的还有scalars,vectors等

  1. f([[1,2,3],[2,1,1]]) 

输出结果

1479476360558.jpg

可以看到输出的是个tuple,正对应输出指定变量

  1. import theano 

  2. import theano.tensor as T 

  3. from theano import In 

  4. x,y = T.scalars('x','y') 

  5. z=x+y 

  6. f= theano.function([x,In(y,value=1)],z) 

  7. f(2) 

  8. f(2,5) 

输出结果

1479476766052.jpg

新知识点:

  • In 这个类能够更详细的指定函数的参数,比如默认值。 函数中给定默认值的参数应该放在没给定默认值参数的后面,c++也这样。

  • In 还能够重新给参数命名,这样就能够使函数输入,假设2-4个输入是有默认值的,但我2,3想使用默认值,第4个不想使用默认值时,不用对2,3赋值了,比如

  1. x,y,w= T.scalars('x','y','w') 

  2. z=(x+y)*w 

  3. f=T.function([x,In(y,value=1),In(w,value=2,name='w_byname')],z) 

那么f(33,1,5)和f(33,w_by_name=5)结果时一样的

这里为什么w已经有名字'w'了,还要再定义名字呢?

主要是由于In并不知道局部变量x,y,w的名字,函数输入参数其实就是一个字典,keyword是scalar默认的姓名属性,这里In是重写了参数的keyword

  1. from theano import shared 

  2. from theano import In 

  3. import theano 

  4. import theano.tensor as T 

  5. state = shared(0) 

  6. inc = T.scalar('inc') 

  7. accumular = function([inc],state,update=[(state,state+inc)]) 

新知识点:

  • shared 这个函数声明的是一个符号和变量的结合体,也就说他直接赋值了,内部有一定的值参与运算。另外之所以称为shared是因为这个量是可以多个函数共享的,有点像c++里面的静态变量,在一个函数里面修改了这个量,后面使用这个量的函数就是在新的值上运算了。

    shared变量可以通过.set_value()和.get_value()设置和读取状态值

  • updates是一个list量,他的元素是(shared_variable,new expression)对,有点像字典,每次对keyword对应的值更新,注意

    这里是先返回的state,再进行的state=state+inc,看下面的代码结果

1479478877749.jpg
  1. >>> fn_of_state = state * 2 + inc 

  2. >>> # The type of foo must match the shared variable we are replacing 

  3. >>> # with the ``givens`` 

  4. >>> foo = T.scalar(dtype=state.dtype) 

  5. >>> skip_shared = function([inc, foo], fn_of_state, givens=[(state, foo)]) 

  6. >>> skip_shared(1, 3) # we're using 3 for the state, not state.value 

  7. array(7) 

  8. >>> print(state.get_value()) # old state still there, but we didn't use it 



知识点:

  • 这个蛮有意思的,就是说我现在有个函数,函数里面的计算牵涉到state变量,但是我不想使用state当前的值,那么我就可以使用function的givens参数另一个值暂且替代state

    看上面这个代码,我使用state表示的fn_of_state,但是计算时不想使用当前state的值,而是使用3,于是使用givens令新变量foo替代state占的位置,所以得到的结果fn_of_state=foo*2+inc=7

    而state.get_value()值仍然为state的原先值,这里是0

  • 这里的givens不仅仅可以适用于shared,还可以适用于任意的symbolic variable,要注意的是在givens的list里面替代的量要相互独立,要不然就不知道怎么替代了

  • shared变量默认的是broadcastable=False,所以要想使用broadcasrable pattern,需要特别指定,如

    theano.shared(...,broadcastable=(True,False))

1

Theano 学习笔记(一)的更多相关文章

  1. IMPLEMENTING A GRU/LSTM RNN WITH PYTHON AND THEANO - 学习笔记

    catalogue . 引言 . LSTM NETWORKS . LSTM 的变体 . GRUs (Gated Recurrent Units) . IMPLEMENTATION GRUs 0. 引言 ...

  2. Theano学习笔记(二)——逻辑回归函数解析

    有了前面的准备,能够用Theano实现一个逻辑回归程序.逻辑回归是典型的有监督学习. 为了形象.这里我们如果分类任务是区分人与狗的照片. 首先是生成随机数对象 importnumpy importth ...

  3. Theano学习笔记(三)——图结构

    图结构(Graph Structures)这是理解Theano该基金会的内部运作. Theano编程的核心是用符号占位符把数学关系表示出来. 图结构的组成部分 如图实现了这段代码: importthe ...

  4. Theano学习笔记(一)——代数

    标量相加 import theano.tensor as T from theano import function x = T.dscalar('x') y = T.dscalar('y') z = ...

  5. Theano学习笔记(四)——导数

    导数使用T.grad计算. 这里使用pp()打印梯度的符号表达式. 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了. fill((x** TensorConstant{ ...

  6. Theano学习笔记:Theano的艰辛安装体验

    http://www.cnblogs.com/hanahimi/p/4127026.html

  7. Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)

    0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...

  8. 学习笔记︱Nvidia DIGITS网页版深度学习框架——深度学习版SPSS

    DIGITS: Deep Learning GPU Training System1,是由英伟达(NVIDIA)公司开发的第一个交互式深度学习GPU训练系统.目的在于整合现有的Deep Learnin ...

  9. Keras学习笔记——Hello Keras

    最近几年,随着AlphaGo的崛起,深度学习开始出现在各个领域,比如无人车.图像识别.物体检测.推荐系统.语音识别.聊天问答等等.因此具备深度学习的知识并能应用实践,已经成为很多开发者包括博主本人的下 ...

随机推荐

  1. Open xml 操作Excel 透视表(Pivot table)-- 实现Excel多语言报表

    我的一个ERP项目中,客户希望使用Excel Pivot table 做分析报表. ERP 从数据库中读出数据,导出到Excel中的数据源表(统一命名为Data),刷新Pivot table! 客户还 ...

  2. LUA中将未分类数据分为测试集和训练集

    require 'torch' require 'image' local setting = {parent_root = '/home/pxu/image'} function list_chil ...

  3. java模拟post请求发送json

    java模拟post请求发送json,用两种方式实现,第一种是HttpURLConnection发送post请求,第二种是使用httpclient模拟post请求, 方法一: package main ...

  4. VS2015编译boost1.62

    VS2015编译boost1.62 Boost库是一个可移植.提供源代码的C++库,作为标准库的后备,是C++标准化进程的开发引擎之一. Boost库由C++标准委员会库工作组成员发起,其中有些内容有 ...

  5. 函数find(exp)

    Matlab函数find(exp): 查找符合exp的值并储存 示例: b=find(a>20&a<40) 仅此

  6. 自动化运维 Expect

      Mac 下载:brew install homebrew/dupes/expect expect : ->  自动化脚本工具:  用于处理交互命令; #注意 调用时并不是使用的 /bin/b ...

  7. jquery动态添加的html,第三方插件无法生效的情况

    今天一个问题纠结了半天,问题如下图  问题大致就是如上,新增的内容死活点不起,插件没有生效,在一个装逼前端群里面问,给我的答案是叫我去了解事件委托,了解一下事件冒泡!! 好吧,我一上午加半个下午的时间 ...

  8. 分布式之ZookeeperMac安装

    Zookeeper用于分布式计算中的协调员,观察员,观察者,分布式锁,在系统中利用Zookeeper来处理事件通知,队列,锁等功能. 使用brew安装 zookeeper. 可参考:http://bl ...

  9. Js 日期 多少分钟前,多少秒前

    ;(function(window){ /** * [dateDiff 算时间差] * @param {[type=Number]} hisTime [历史时间戳,必传] * @param {[typ ...

  10. swift之inout

    在swift中,我们常常对数据进行一些处理.因为swift的计算属性,所以如果不是大量重复性处理,基本可以在set及didSet中改变原数据的一些状态.但需要用到同样的算法处理大量数据的时候,仍然需要 ...