Tensorflow细节-P309-高维向量可视化】的更多相关文章

import matplotlib.pyplot as plt import tensorflow as tf import numpy as np import os from tensorflow.examples.tutorials.mnist import input_data LOG_DIR = 'log' SPRITE_FILE = 'mnist_sprite.jpg' META_FIEL = "mnist_meta.tsv" def create_sprite_image…
Tensorflow高维向量可视化 觉得有用的话,欢迎一起讨论相互学习~Follow Me 参考文献 强烈推荐Tensorflow实战Google深度学习框架 实验平台: Tensorflow1.4.0 python3.5.0 MNIST数据集将四个文件下载后放到当前目录下的MNIST_data文件夹下 高维向量表示 为了更加直观的了解embedding 向量的效果,TensorBoard 提供了PROJECTOR 界面来可视化高维向量之间的关系.PROJECTOR 界面可以非常方便地可视化多个…
注意下面一个点就ok了 with tf.name_scope('input_reshape'): # 注意看这里,图片的生成 image_shaped_input = tf.reshape(x, [-1, 28, 28, 1]) tf.summary.image('input', image_shaped_input, 10) import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data SU…
#!/usr/bin/env python # -*- coding: utf-8 -*- """ ---------------------------------- Version : ?? File Name : visual_vec.py Description : Author : xijun1 Email : Date : 2018/12/25 ----------------------------------- Change Activiy : 2018/12…
先搞点基础的 注意注意注意,这里虽然很基础,但是代码应注意: 1.从writer开始后边就错开了 2.writer后可以直接接writer.close,也就是说可以: writer = tf.summary.FileWriter("./log", graph=g) writer.close() import tensorflow as tf g = tf.Graph() with g.as_default(): input1 = tf.get_variable("input1…
1. session对话控制 matrix1 = tf.constant([[3,3]]) matrix2 = tf.constant([[2],[2]]) product = tf.matmul(matrix1,matrix2) #类似于numpy的np.dot(m1,m2) 方法1: sess = tf.Session() result = sess.run(product) print(result) sess.close()>>>[[12]] 方法2: with tf.Sessi…
程序1 任务描述: x = 3.0, y = 100.0, 运算公式 x×W+b = y,求 W和b的最优解. 使用tensorflow编程实现: #-*- coding: utf-8 -*-) import tensorflow as tf # 声明占位变量x.y x = tf.placeholder("float",shape=[None,1]) y = tf.placeholder("float",[None,1]) # 声明变量 W = tf.Variabl…
首先进行数据预处理,需要生成.tsv..jpg文件 import matplotlib.pyplot as plt import numpy as np import os from tensorflow.examples.tutorials.mnist import input_data LOG_DIR = 'log' SPRITE_FILE = 'mnist_sprite.jpg' META_FIEL = "mnist_meta.tsv" # 存储索引和标签 def create_…
参考: http://blog.csdn.net/l18930738887/article/details/55000008 http://www.jianshu.com/p/19bb60b52dad http://blog.csdn.net/sinat_33761963/article/details/62433234 import tensorflow as tf import numpy as np def add_layer(inputs, in_size, out_size, n_la…
如果什么都不加,直接运行装了GPU的Tensorflow,结果是这样子的 import tensorflow as tf a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a') b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b') c = a + b sess = tf.Session(config=tf.ConfigProto(log_device_placement=True)) # 通…
讲解几个重点知识 1.对于tf.get_variable()中的reuse,意思是,如果有名字一模一样的变量,则对这个变量继续使用,如果没有名字一模一样的变量,则创建这个变量 2.options=run_options, run_metadata=run_metadata这玩意不好使 3.记住accuracy的argmax() 4.求accuracy三步:(1)argmax() (2)cast() (3)reduce_mean() 以下是mnist_inference的内容 import ten…
本节是对上节的补充 import tempfile import tensorflow as tf # 输入数据使用本章第一节(1. TFRecord样例程序.ipynb)生成的训练和测试数据. train_files = tf.train.match_filenames_once("output.tfrecords") test_files = tf.train.match_filenames_once("output_test.tfrecords") def p…
数据集的基本使用方法 import tempfile import tensorflow as tf input_data = [1, 2, 3, 5, 8] # 这不是列表吗,为什么书里叫数组 dataset = tf.data.Dataset.from_tensor_slices(input_data) # 这是构建Dataset内存中的数据 # 定义迭代器. iterator = dataset.make_one_shot_iterator() # get_next() 返回代表一个输入数…
要点 1.filename_queue = tf.train.string_input_producer(files, shuffle=False)表示创建一个队列来维护列表 2.min_after_dequeue = 10000queue runner线程要保证队列中至少剩下min_after_dequeue个数据. 如果min_after_dequeue设置的过少,则即使shuffle为true,也达不到好的混合效果. 3.·sess.run((tf.global_variables_ini…
import tensorflow as tf files = tf.train.match_filenames_once("data.tfrecords-*") filename = tf.train.string_input_producer(files, shuffle=False, num_epochs=3) # 创建输入队列 reader = tf.TFRecordReader() _, serialized_example = reader.read(filename) f…
以下代码要学会几个地方 1.filename = ('data.tfrecords-%.5d-of-%.5d' % (i, num_shards)) 这个东西就是要会data.tfrecords-%.5d-of-%.5d两个.5d, 2.记住这两个操作writer = tf.python_io.TFRecordWriter(filename)与writer = tf.python_io.TFRecordWriter(filename) 3.得到的是以下TFrecoard两个文件 import t…
先感受一下队列之美 import tensorflow as tf q = tf.FIFOQueue(2, "int32") # 创建一个先进先出队列 # 队列中最多可以保存两个元素,并指定类型为整数 init = q.enqueue_many(([0, 10],)) x = q.dequeue() y = x + 1 q_inc = q.enqueue([y]) with tf.Session() as sess: init.run() for _ in range(5): v, _…
注意这里的读取image_raw_data = tf.gfile.FastGFile("./datasets/cat.jpg", "rb").read(),写入f = tf.gfile.GFile("output.png", "wb")所用的函数,注意这里及以下都是调用的tf.image. import matplotlib.pyplot as plt import tensorflow as tf image_raw_dat…
由于6.5中提出的TFRecord非常复杂,可扩展性差,所以本节换一种方式 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import numpy as np # 定义函数转化变量类型. def _int64_feature(value): return tf.train.Feature(int64_list=tf.train.Int64List(value=[value]))…
这是一个完整的程序,值得保存 1.对图片进行预处理并保存 import glob import os.path import numpy as np import tensorflow as tf from tensorflow.python.platform import gfile # 原始输入数据的目录,这个目录下有5个子目录,每个子目录底下保存这属于该 # 类别的所有图片. INPUT_DATA = './dataset/flower_photos' # 输出文件地址.我们将整理后的图片…
第一个代码 import tensorflow as tf v1 = tf.Variable(tf.random_normal([1], stddev=1, seed=1)) v2 = tf.Variable(tf.random_normal([1], stddev=1, seed=1)) result = v1 + v2 init_op = tf.global_variables_initializer() saver = tf.train.Saver() with tf.Session()…
知识总结 (1)再次注意summary的使用 (2)x = rdm.rand(dataset_size, 2) y_ = [[x1**2 + x2**2] for (x1, x2) in x]这里的问题要注意 (3)注意batch时,全部先按照一套W进行前向传播,这时候在进行正则化时,加的是同一套W,然后反向传播改变W值,进行下一轮前向传播 代码如下 import tensorflow as tf import numpy as np from numpy.random import Rando…
1.本节多为复习内容,从以下图片可见一般: 2.学会使用 from numpy.random import RandomState 然后 rdm = RandomState(1) dataset_size = 128 X = rdm.rand(dataset_size, 2) Y = [[(x1 + x2) + rdm.rand() / 10.0-0.05] for(x1, x2) in X] 进行赋值的时候就可以不变了 import tensorflow as tf from numpy.ra…
这样是比较好的一个summary命名 (1)'networks'.'layer_%d' % n_layer.'weights'三个命名空间相互叠加 (2) if i % 50 == 0: result = sess.run(merged, feed_dict={xs: x_data, ys: y_data}) writer.add_summary(result, i) 逐步写入的程序如上面所示 (3)最后的tensorboard图还是比较完美的 import numpy as np import…
1.首先复习前面所学知识: (1)g = tf.Graph() (2)别忘了初始化时的initializer (3)with tf.name_scope("generate_constant"): x = tf.constant([[0.7, 0.9]], name="x")这个东西发现没球用 (4)最好是用with tf.variable_scope("generate_variable"):与tf.get_variable相结合,不要用tf.…
1.运行以下代码 import tensorflow as tf a = tf.constant([1.0, 2.0], name="a") b = tf.constant([2.0, 3.0], name="b") result = a + b print result sess = tf.InteractiveSession () print(result.eval()) sess.close() 得到 其中,add与代码中的add有关,0表示第一个输出,图中的…
1.绝大部分时候都会忽略graph的使用,如下代码所示,学会怎样tf.get_default_graph()是重要的,此外注意变量定义时的初始化必须加 initializer 2.此外,要知道 writer2 = tf.summary.FileWriter(Summary_log, g2) writer2.close() 这两条语句加在哪里也是极为重要的 3.注意命名及命名空间的使用 import tensorflow as tf Summary_log = './path' g1 = tf.G…
gather用于高级切片,有关官方文档的介绍,关于维度的说明很是费解,示例也不太直观,这里给出我的解读,示例见下面,     indices = [[0, 0], [1, 1]]    params = [['a', 'b'], ['c', 'd']]    output = ['a', 'd']     indices = [[[0, 0]], [[0, 1]]]    params = [['a', 'b'], ['c', 'd']]    output = [['a'], ['b']] 我…
图片尺寸要自己修改. 看起来好像没啥意思,不知道下一步能干什么,先卷了再说.由于weights是随机生成的(tf.random_normal作用:用于从服从指定正太分布的数值中取出随机数),所以每次卷积后的图像会不一样. 代码: def func19(img_path): # 读取图片,矩阵化,转换为张量 img_data = cv2.imread(img_path) img_data = tf.constant(img_data, dtype=tf.float32) print(img_dat…
本节的循环神经网络一图足以说明 import numpy as np X = [1, 2] state = [0.0, 0.0] # 定义RNN的参数 # 以下两个本来是像这样分开的,但是在运算时合并了 w_cell_state = np.asarray([[0.1, 0.2], [0.3, 0.4]]) w_cell_input = np.asarray([0.5, 0.6]) b_cell = np.asarray([0.1, -0.1]) w_output = np.asarray([[1…