2.使用RNN做诗歌生成】的更多相关文章

诗歌生成比分类问题要稍微麻烦一些,而且第一次使用RNN做文本方面的问题,还是有很多概念性的东西~~~ 数据下载: 链接:https://pan.baidu.com/s/1uCDup7U5rGuIlIb-lnZgjQ提取码:f436 data.py——数据处理 import numpy as np import os def get_data(conf): ''' 生成数据 :param conf: 配置选项,Config对象 :return: word2ix: 每个字符对应的索引id,如u'月'…
往期RNN相关工程实践文章 『TensotFlow』基础RNN网络分类问题 『TensotFlow』RNN中文文本_上 『TensotFlow』基础RNN网络回归问题 『TensotFlow』RNN中文文本_下_暨研究生开学感想 张量分析 预处理结果是二维数据,相当于batch条一维数据,每个数据对应一首诗,每个字是一个scalar: embedding之后,将每个字映射为一个rnn_size大小的向量,数据变为三维: 经过递归神经网络,输出维度不变: 将之调整为二维数据,这里面第二维度(即每一…
第一次用LSTM,从简单做起吧~~ 注意事项: batch_first=True 意味着输入的格式为(batch_size,time_step,input_size),False 意味着输入的格式为(time_step,batch_size,input_size) 取r_out[:,-1,:],即取时间步最后一步的结果,相当于LSTM把一张图片全部扫描完后的返回的状态向量(此时的维度变为(64,64),前面的64是batch_size,后面的64是隐藏层的神经元个数) import torch…
$todoString="www.maomii.com"; generateQRfromGoogle($todoString); /** * google api 最多4296个字符 * @param string $str 二维码包含的信息,数据须经过UTF-8 URL-encoded.如果需要传递的信息超过2K个字节,请使用POST方式 * @param int $widhtHeight 生成二维码的尺寸设置 * @param string $EC_level 可选纠错级别,QR码…
以下内容均来自: https://ptorch.com/news/11.html word embedding也叫做word2vec简单来说就是语料中每一个单词对应的其相应的词向量,目前训练词向量的方式最常使用的应该是word2vec(参考 http://www.cnblogs.com/bamtercelboo/p/7181899.html) Word Embedding 在自然语言处理中词向量是很重要的,首先介绍一下词向量. 之前做分类问题的时候大家应该都还记得我们会使用one-hot编码,比…
本文转载自:https://zhuanlan.zhihu.com/p/29212896 简单的Char RNN生成文本 Sherlock I want to create some new things! 32 人赞了该文章 我来钱庙复知世依,似我心苦难归久,相须莱共游来愁报远.近王只内蓉者征衣同处,规廷去岂无知草木飘. 你可能以为上面的诗句是某个大诗人所作,事实上上面所有的内容都是循环神经网络写的,是不是感觉很神奇呢?其实这里面的原理非常简单,只需要对循环神经网络有个清楚的理解,那么就能够实现…
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/252 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 ShowMeAI为斯坦福CS224n<自然语言处理与深度学习(Natural Language Processing with Deep Learn…
1. 针对机器学习/深度神经网络“记忆能力”的讨论 0x1:数据规律的本质是能代表此类数据的通用模式 - 数据挖掘的本质是在进行模式提取 数据的本质是存储信息的介质,而模式(pattern)是信息的一种表现形式.在一个数据集中,模式有很多不同的表现形式,不管是在传统的机器学习训练的过程,还是是深度学习的训练过程,本质上都是在进行模式提取. 而从信息论的角度来看,模式提取也可以理解为一种信息压缩过程,通过将信息从一种形式压缩为另一种形式.压缩的过程不可避免会造成信息丢失. 笔者这里列举几种典型的体…
1. 注意力模型 1.2 注意力模型概述 注意力模型(attention model)是一种用于做图像描述的模型.在笔记6中讲过RNN去做图像描述,但是精准度可能差强人意.所以在工业界,人们更喜欢用attention model. 结合下图,先简单地讲一下,注意力模型的运作原理. 第一步:进来一张图片 第二步:图片进入卷积神经网络,进行前向运算,将某个卷积层的结果输出.注意,上一个笔记中讲的RNN做图像描述,用的是全链接层的输出.至于说哪个层的输出好,没法下结论,这个需要去不同的场景中做实验比较…
一份不错的作业3资料(含答案) RNN神经元理解 单个RNN神经元行为 括号中表示的是维度 向前传播 def rnn_step_forward(x, prev_h, Wx, Wh, b): """ Run the forward pass for a single timestep of a vanilla RNN that uses a tanh activation function. The input data has dimension D, the hidden…