''' Created on May 24, 2017 @author: p0079482 ''' #使用程序输出日志 import tensorflow as tf with tf.Session() as sess: tf.initialize_all_variables().run() for i in range(TRAINING_STEPS): xs,ys=mnist.train.next_batch(BATCH_SIZE) #每1000轮记录一次运行状态 if i%1000==0:…
前置准备 在阅读本文之前,请确定你已经了解神经网络的基本结构以及前向传播.后向传播的基本原理,如果尚未了解,可以查看下文. 深度学习之神经网络 什么是TensorFlow? TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理.Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程.TensorFlow是将复杂的数据结构传输至人工智能神经网络中进行分析…
讲解几个重点知识 1.对于tf.get_variable()中的reuse,意思是,如果有名字一模一样的变量,则对这个变量继续使用,如果没有名字一模一样的变量,则创建这个变量 2.options=run_options, run_metadata=run_metadata这玩意不好使 3.记住accuracy的argmax() 4.求accuracy三步:(1)argmax() (2)cast() (3)reduce_mean() 以下是mnist_inference的内容 import ten…
下文会出现的一些知识点:TensorFlow的计算模型.数据模型.运行模型,TensorFlow的工作原理. 两个重要概念——Tensor和Flow: Tensor是张量,在TensorFlow中可以简单理解为多维数组. Flow是流,表示张量之间通过计算相互转化的过程. TensorFlow 计算模型——计算图: TensorFlow是一个通过计算图的形式来表述计算的编程系统,每一个计算都是计算图上的一个节点,节点之间的边是计算之间的依赖关系. TensorFlow程序一般可分为两个阶段.一,…
神经网络的训练算法,目前基本上是以Backpropagation (BP) 反向传播为主(加上一些变化),NN的训练是在1986年被提出,但实际上,BP 已经在不同领域中被重复发明了数十次了(参见 Griewank (2010)[1]).更加一般性且与应用场景独立的名称叫做:反向微分 (reverse-mode differentiation).本文是看了资料[2]中的介绍,写的蛮好,自己记录一下,方便理解. 从本质上看,BP 是一种快速求导的技术,可以作为一种不单单用在深度学习中并且可以胜任大…
# TensorFlow使用tf.Session类来表示客户端程序之间的链接 # 虽然一个在其他语言中相似的接口也是可以使用的,列如C++ runtime # 一个tf.Session对象提供了访问本地机器的方法,和使用TensorFlow运行时远程链接到设备的方法 # 它也对你的计算图信息进行缓存,因此你可以高效地运行相同的计算很多遍 # import tensorflow as tf # Create a default in-process session # with tf.Sessio…
kafka在Zookeeper上的节点如下图: 该图片盗自大牛的博客http://blog.csdn.net/lizhitao/article/details/23744675 服务端开启的情况下,进入客户端的命令:{zookeeper目录}/bin/zkCli.sh 以下是几个zookeeper客户端用的命令,不只kafka,其他任何注册到zookeeper的服务都可以使用这些命令. 1,ls ls会显示该节点下的子节点信息 比如: ls / 显示zookeeper根目录下的子节点,其中kaf…
需求: 我在learn这个app下创建了两张表,其中一个表为user,我希望通过API,在页面是展示这些数据,当用户访问指定的url时,将表中所有对象展示到页面上. 先看learn/models.py文件代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 #coding:utf8 from django.db import models class Group(models.Model):     Name = models.CharField(max_le…
使用tensorflow model库里的cifar10 多gpu训练时,最后测试发现时间并没有减少,反而更慢 参考以下两个链接 https://github.com/keras-team/keras/issues/9204 https://medium.com/@c_61011/why-multi-gpu-training-is-not-faster-f439fe6dd6ec 原因可能是在cpu上进行参数梯度同步占每一步的很大比例 ‘’‘ It seems that CPU-side data…
在我的开发任务中,突然给我提出了一个待办任务需要获取当前任务节点上以任务节点的表单信息,刚开始搞得我有点措手不及,后来仔细是靠后,灵感一下,直接操作流程的bpmn信息就可以获取到节点信息嘛,顺着这个思路,我整理出了自己的思路: (1)将节点大体分为两类,一类是网关节点,另外一类就是用户任务节点,使用List集合,将网关与用户任务进行分类 (2)获取上一节点,我们就需要从bpmn的连线信息入手,固定连线的targtaetRef,辨别sourceRef节点的类型,当是用户任务时,放进 List fr…