Theano 学习笔记(一)

theano
  1. 为什么要定义共享变量?

    定义共享变量的原因在于GPU的使用,如果不定义共享的话,那么当GPU调用这些变量时,遇到一次就要调用一次,这样就会花费大量时间在数据存取上,导致使用GPU代码运行很慢,甚至比仅用CPU还慢。

  2. 共享变量的类型必须为floatX

    因为GPU要求在floatX上操作,所以所有的共享变量都要声明为floatX类型

  1. shared_x = theano.shared(numpy.asarray(data_x, dtype=theano.config.floatX)) 


  2. self.A = theano.shared(name = "A", value = E.astype(theano.config.floatX)) 

  1. 创建tensor variables

    在创建变量时可以给变量命名,命名能够加快debugging的过程,所有的构造器中都有name参数供命名,下面三种创建变量的方式都是创建一个整型的标量,命名为‘myvar’

  1. x = scalar('myvar',dtype='int32') 

  2. x = iscalar('myvar') 

  3. x = TensorType(dtype = 'int32', broadcastable=())('myvar') 

典型构造器

  1. theano.tensor.scalar(name=None,dtype=config.floatX) 

  2. theano.tensor.vector(name=None,dtype=config.floatX) 

  3. theano.tensor.row(name=None, dtype=config.floatX) 

  4. theano.tensor.col(name=None,dtype=config.floatX) 

  5. theano.tensor.matrix(name=None,dtype=config.floatX) 

  6. theano.tensor.tensor3(name=None,dtype=config.floatX) #3D张量 

  7. theano.tensot.tensor4(name=None,dtype=config.floatX) #4D张量 

导入的命名空间 from theano.tensor import *

  1. 创建新的Tensor Type

  1. dtensor5 = TensorType('float64',(False,)*5) 

  2. x=dtensor5() 

  3. z=dtensor5('z') 

  1. Theano requires that the inputs to all expressions be Variable instances, so Theano automatically wraps them in a TensorConstant. Thus, when you use a numpy ndarray or a python number together with TensorVariable instances in arithmetic expressions, the result is a TensorVariable.

  2. broadcastable

    这个东西是一个布尔有元素组成的元组,比如[False,True,False]等

    broadcastable 一方面指定了类型的大小,另一方面也指定了那个维度上size只能为1(True,表示对应维度上长度只能为1,matlab: size(A,broadcasrable(i)==True)=1)

  1. [] scalar 

  2. [True] 1D scalar (vector of length 1) 

  3. [True, True] 2D scalar (1x1 matrix) 

  4. [False] vector 

  5. [False, False] matrix 

  6. [False] * n nD tensor 

  7. [True, False] row (1xN matrix) 

  8. [False, True] column (Mx1 matrix) 

  9. [False, True, False] A Mx1xP tensor (a) 

  10. [True, False, False] A 1xNxP tensor (b) 

  11. [False, False, False] A MxNxP tensor (pattern of a + b) 

For dimensions in which broadcasting is False, the length of this dimension can be 1 or more.

For dimension in which broadcasting is True, the length of this dimension must be 1.

另外,broadcastable,顾名思义,与传播运算有关,当两个维度不同的参数进行元素运算时,broadcastable pattern 可以通过在tuple的左侧填充True,凑齐维度。

比如 a vector's pattern [False],可以扩展成 [True, False]; a matrix pattern [False,False]可以扩展成 [True, False,False]

然后对应的True维度上就可以broad了

这样学起来实在是太慢了。。。。。。。。。。。

总觉得python乱,还是读代码吧,边读边学。。。

  1. import theano 

  2. import theano.tensor as T 

  3. x=T.matrix('x') 

  4. s=1/(1+t.exp(-x)) 

  5. logistic = theano.function([x],s) 

  6. logistic([[1,2,3],[4,3,0.5]]) 

结果

1479475790674.jpg

学到的点:

  • 声明符号变量x,名称为'x',这个我们也说了主要是为了GPU调度方便

  • +,-,*,/,包括exp等函数都是元素操作的

  • logistic相当于一个函数句柄,这个函数的输入是x,输出是s, x到s的关系根据前面定义可得

  1. import theano 

  2. import theano.tensor as T 

  3. a,b=T.matrices('a','b') 

  4. diff = a-b 

  5. abs_diff = abs(diff) 

  6. diff_squared = diff**2 

  7. f = theano.function([a,b],[diff,abs_diff,diff_squared]) 

点:

  • theano 可以定义多输入多输出,类似的matlab代码

  1. function [diff,abs_diff,diff_squared]=f(a,b) 

  2. ... 

  3. end 

  • matrices 是同时声明参数个数个变量,类似的还有scalars,vectors等

  1. f([[1,2,3],[2,1,1]]) 

输出结果

1479476360558.jpg

可以看到输出的是个tuple,正对应输出指定变量

  1. import theano 

  2. import theano.tensor as T 

  3. from theano import In 

  4. x,y = T.scalars('x','y') 

  5. z=x+y 

  6. f= theano.function([x,In(y,value=1)],z) 

  7. f(2) 

  8. f(2,5) 

输出结果

1479476766052.jpg

新知识点:

  • In 这个类能够更详细的指定函数的参数,比如默认值。 函数中给定默认值的参数应该放在没给定默认值参数的后面,c++也这样。

  • In 还能够重新给参数命名,这样就能够使函数输入,假设2-4个输入是有默认值的,但我2,3想使用默认值,第4个不想使用默认值时,不用对2,3赋值了,比如

  1. x,y,w= T.scalars('x','y','w') 

  2. z=(x+y)*w 

  3. f=T.function([x,In(y,value=1),In(w,value=2,name='w_byname')],z) 

那么f(33,1,5)和f(33,w_by_name=5)结果时一样的

这里为什么w已经有名字'w'了,还要再定义名字呢?

主要是由于In并不知道局部变量x,y,w的名字,函数输入参数其实就是一个字典,keyword是scalar默认的姓名属性,这里In是重写了参数的keyword

  1. from theano import shared 

  2. from theano import In 

  3. import theano 

  4. import theano.tensor as T 

  5. state = shared(0) 

  6. inc = T.scalar('inc') 

  7. accumular = function([inc],state,update=[(state,state+inc)]) 

新知识点:

  • shared 这个函数声明的是一个符号和变量的结合体,也就说他直接赋值了,内部有一定的值参与运算。另外之所以称为shared是因为这个量是可以多个函数共享的,有点像c++里面的静态变量,在一个函数里面修改了这个量,后面使用这个量的函数就是在新的值上运算了。

    shared变量可以通过.set_value()和.get_value()设置和读取状态值

  • updates是一个list量,他的元素是(shared_variable,new expression)对,有点像字典,每次对keyword对应的值更新,注意

    这里是先返回的state,再进行的state=state+inc,看下面的代码结果

1479478877749.jpg
  1. >>> fn_of_state = state * 2 + inc 

  2. >>> # The type of foo must match the shared variable we are replacing 

  3. >>> # with the ``givens`` 

  4. >>> foo = T.scalar(dtype=state.dtype) 

  5. >>> skip_shared = function([inc, foo], fn_of_state, givens=[(state, foo)]) 

  6. >>> skip_shared(1, 3) # we're using 3 for the state, not state.value 

  7. array(7) 

  8. >>> print(state.get_value()) # old state still there, but we didn't use it 



知识点:

  • 这个蛮有意思的,就是说我现在有个函数,函数里面的计算牵涉到state变量,但是我不想使用state当前的值,那么我就可以使用function的givens参数另一个值暂且替代state

    看上面这个代码,我使用state表示的fn_of_state,但是计算时不想使用当前state的值,而是使用3,于是使用givens令新变量foo替代state占的位置,所以得到的结果fn_of_state=foo*2+inc=7

    而state.get_value()值仍然为state的原先值,这里是0

  • 这里的givens不仅仅可以适用于shared,还可以适用于任意的symbolic variable,要注意的是在givens的list里面替代的量要相互独立,要不然就不知道怎么替代了

  • shared变量默认的是broadcastable=False,所以要想使用broadcasrable pattern,需要特别指定,如

    theano.shared(...,broadcastable=(True,False))

1

Theano 学习笔记(一)的更多相关文章

  1. IMPLEMENTING A GRU/LSTM RNN WITH PYTHON AND THEANO - 学习笔记

    catalogue . 引言 . LSTM NETWORKS . LSTM 的变体 . GRUs (Gated Recurrent Units) . IMPLEMENTATION GRUs 0. 引言 ...

  2. Theano学习笔记(二)——逻辑回归函数解析

    有了前面的准备,能够用Theano实现一个逻辑回归程序.逻辑回归是典型的有监督学习. 为了形象.这里我们如果分类任务是区分人与狗的照片. 首先是生成随机数对象 importnumpy importth ...

  3. Theano学习笔记(三)——图结构

    图结构(Graph Structures)这是理解Theano该基金会的内部运作. Theano编程的核心是用符号占位符把数学关系表示出来. 图结构的组成部分 如图实现了这段代码: importthe ...

  4. Theano学习笔记(一)——代数

    标量相加 import theano.tensor as T from theano import function x = T.dscalar('x') y = T.dscalar('y') z = ...

  5. Theano学习笔记(四)——导数

    导数使用T.grad计算. 这里使用pp()打印梯度的符号表达式. 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了. fill((x** TensorConstant{ ...

  6. Theano学习笔记:Theano的艰辛安装体验

    http://www.cnblogs.com/hanahimi/p/4127026.html

  7. Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)

    0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...

  8. 学习笔记︱Nvidia DIGITS网页版深度学习框架——深度学习版SPSS

    DIGITS: Deep Learning GPU Training System1,是由英伟达(NVIDIA)公司开发的第一个交互式深度学习GPU训练系统.目的在于整合现有的Deep Learnin ...

  9. Keras学习笔记——Hello Keras

    最近几年,随着AlphaGo的崛起,深度学习开始出现在各个领域,比如无人车.图像识别.物体检测.推荐系统.语音识别.聊天问答等等.因此具备深度学习的知识并能应用实践,已经成为很多开发者包括博主本人的下 ...

随机推荐

  1. centos7 打开mysql 3306端口并 设置外部访问

    mysql安装后默认是localhost访问,如果需要外部访问可以设置一个新的账号把host改为%,意味着所有ip均可以访问 grant all privileges on *.* to 'outUs ...

  2. memcache服务器端及PHP memcache扩展的安装(转载)

    memcache服务器端的安装(windows版)    1.下载memcached软件 32位下载地址: memcached-win32-1.4.4-14.zip(直接下载) 下载页面: 64位下载 ...

  3. 微信小程序技术分析:Mustache语法要点总结

    小程序开发的wxml里,用到了Mustache语法.所以,非常有必要把Mustache研究下. 什么是Mustache?Mustache是一个logic-less(轻逻辑)模板解析引擎,它是为了使用户 ...

  4. JSon解析

    1.解析总是犯糊涂 在图中,[]  中括号表示是jsonarray,{} 小括号 表示对象  这个解析可以写成: JSONArray array=new JSONArray(result); for( ...

  5. css单位盘点

    css单位有:px,em,rem,vh,vw,vmin,vmax,ex,ch 等等 1.px单位最常见,也最直接,这里不做介绍. 2.em:em的值并不是固定,它继承父级元素的字体大小,所以层数越深字 ...

  6. WebService -- Java 实现之 CXF ( 使用Spring添加拦截器)

    最重要的就是在ApplicationContext.xml下面添加配置 <!-- service provider --> <jaxws:endpoint implementor=& ...

  7. curses.h的安装和使用

    gcc test.c -o test 用以上命令编译包含curses.h头文件的程序时会出现各种引用未定义的错误,并且已经安装了 kernel-devel ncurese-devel ncurese- ...

  8. PHP多条件查询 (租房查询)

    <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/ ...

  9. POJ 2823 Sliding Window 线段树区间求和问题

    题目链接 线段树区间求和问题,维护一个最大值一个最小值即可,线段树要用C++交才能过. 注意这道题不是求三个数的最大值最小值,是求k个的. 本题数据量较大,不能用N建树,用n建树. 还有一种做法是单调 ...

  10. Css格式与布局

    一.位置 1.绝对定位 position:absolute:绝对定位. 绝对位置的意思就是相对于浏览器边框的位置,回归到它应有的位置.也就是说,一个div使用绝对定位后是在浏览器边框的最左上角位置.而 ...