pytorch rnn 2
import torch
import torch.nn as nn
import numpy as np
import torch.optim as optim
class RNN(nn.Module):
def __init__(self,input_dim , hidden_dim , out_dim):
super(RNN,self).__init__()
self.linear_1 = nn.Linear(input_dim , hidden_dim)
self.linear_2 = nn.Linear(hidden_dim , hidden_dim)
self.linear_3 = nn.Linear(hidden_dim, out_dim)
self.relu = nn.ReLU()
self.sigmoid = nn.Sigmoid()
self.hidden_size = hidden_dim
def forward(self, input , hidden_input):
input = input.view(1, 1, -1)
hy = self.relu(self.linear_1(input) + self.linear_2(hidden_input))
output = self.sigmoid(self.linear_3(hy))
return output , hy
def init_weight(self):
nn.init.normal_(self.linear_1.weight.data , 0 , np.sqrt(2 / 16))
nn.init.uniform_(self.linear_1.bias, 0, 0)
nn.init.normal_(self.linear_2.weight.data, 0, np.sqrt(2 / 16))
nn.init.uniform_(self.linear_2.bias, 0, 0)
nn.init.normal_(self.linear_3.weight.data , 0 , np.sqrt(2 / 16))
nn.init.uniform_(self.linear_3.bias, 0, 0)
def init_hidden(self):
return torch.zeros([1,1,self.hidden_size])
def train(input_seq , target, encoder , optim , criterion ,max_length):
optim.zero_grad()
hidden = encoder.init_hidden()
encoder_outputs = torch.zeros(max_length)
for ndx in range(max_length):
x_in = torch.Tensor([input_seq[0][ndx] , input_seq[1][ndx]])
output , hidden = encoder(x_in , hidden)
encoder_outputs[ndx] = output[0,0]
target = torch.Tensor(target)
loss = criterion(encoder_outputs, target)
loss.backward()
optim.step()
return loss , encoder_outputs
def trainIter(batch_x , batch_y , encoder , max_length,learning_rate):
encoder_optimizer = optim.Adam(encoder.parameters(), lr=learning_rate)
criterion = nn.MSELoss()
loss = 0
predict = np.zeros([batch_size , max_length])
for ndx in range(len(batch_x)):
loss_ , encoder_outputs = train(batch_x[ndx],batch_y[ndx], encoder ,encoder_optimizer,criterion, max_length)
loss += loss_
predict[ndx] = encoder_outputs.detach().numpy()
return loss , predict
def getBinDict(bit_size = 16):
max = pow(2,bit_size)
bin_dict = {}
for i in range(max):
s = '{:016b}'.format(i)
arr = np.array(list(reversed(s)))
arr = arr.astype(int)
bin_dict[i] = arr
return bin_dict
binary_dim = 16
int2binary = getBinDict(binary_dim)
def getBatch( batch_size , binary_size):
x = np.random.randint(0,256,[batch_size , 2])
batch_x = np.zeros([batch_size , 2,binary_size] )
batch_y = np.zeros([batch_size , binary_size])
for i in range(0 , batch_size):
batch_x[i][0] = int2binary[x[i][0]]
batch_x[i][1] = int2binary[x[i][1]]
batch_y[i] = int2binary[x[i][0] + x[i][1]]
return batch_x , batch_y , [a + b for a,b in x]
def getInt(y , bit_size):
arr = np.zeros([len(y)])
for i in range(len(y)):
for j in range(bit_size):
arr[i] += (int(y[i][j]) * pow(2 , j))
return arr
if __name__ == '__main__':
input_size = 2
hidden_size = 8
batch_size = 100
net = RNN(input_size, hidden_size , 1)
net.init_weight()
print(net)
for i in range(100000):
net.zero_grad()
h0 = torch.zeros(1, batch_size, hidden_size)
x , y , t = getBatch(batch_size , binary_dim)
loss , outputs = trainIter(x , y , net , binary_dim , 0.01)
print('iterater:%d loss:%f' % (i, loss))
if i % 100== 0:
output2 = np.round(outputs)
result = getInt(output2,binary_dim)
print(t ,'\n', result)
print('iterater:%d loss:%f'%(i , loss))
pytorch rnn 2的更多相关文章
- pytorch rnn
温习一下,写着玩. import torch import torch.nn as nn import numpy as np import torch.optim as optim class RN ...
- [PyTorch] rnn,lstm,gru中输入输出维度
本文中的RNN泛指LSTM,GRU等等 CNN中和RNN中batchSize的默认位置是不同的. CNN中:batchsize的位置是position 0. RNN中:batchsize的位置是pos ...
- pytorch --Rnn语言模型(LSTM,BiLSTM) -- 《Recurrent neural network based language model》
论文通过实现RNN来完成了文本分类. 论文地址:88888888 模型结构图: 原理自行参考论文,code and comment: # -*- coding: utf-8 -*- # @time : ...
- pytorch RNN层api的几个参数说明
classtorch.nn.RNN(*args, **kwargs) input_size – The number of expected features in the input x hidde ...
- 机器翻译注意力机制及其PyTorch实现
前面阐述注意力理论知识,后面简单描述PyTorch利用注意力实现机器翻译 Effective Approaches to Attention-based Neural Machine Translat ...
- PyTorch专栏(六): 混合前端的seq2seq模型部署
欢迎关注磐创博客资源汇总站: http://docs.panchuang.net/ 欢迎关注PyTorch官方中文教程站: http://pytorch.panchuang.net/ 专栏目录: 第一 ...
- 混合前端seq2seq模型部署
混合前端seq2seq模型部署 本文介绍,如何将seq2seq模型转换为PyTorch可用的前端混合Torch脚本.要转换的模型来自于聊天机器人教程Chatbot tutorial. 1.混合前端 在 ...
- “你什么意思”之基于RNN的语义槽填充(Pytorch实现)
1. 概况 1.1 任务 口语理解(Spoken Language Understanding, SLU)作为语音识别与自然语言处理之间的一个新兴领域,其目的是为了让计算机从用户的讲话中理解他们的意图 ...
- Pytorch系列教程-使用字符级RNN生成姓名
前言 本系列教程为pytorch官网文档翻译.本文对应官网地址:https://pytorch.org/tutorials/intermediate/char_rnn_generation_tutor ...
随机推荐
- DTD与XML Schema都是XML文档。(选择1项)
DTD与XML Schema都是XML文档.(选择1项) A.正确 B.不正确 解答:DTD不是XML文件, schema是XML文档
- web 前端 转盘界面
http://www.cnblogs.com/arfeizhang/p/turntable.html "如果有个做转盘的需求,你准备怎么做?设计师只会提供一个转盘的图片,其余都需要你完成,不 ...
- 解决 Failure to transfer * from http://repo1.maven.org/maven2
解决 Failure to transfer * from http://repo1.maven.org/maven2 Failure to transfer org.apache.maven:mav ...
- when case group by 的用法集合
1.用那个以前大家都熟悉的例子,要求是依旧下面的表格求每个大洲的人口总和 国家(countrcoungry) 人口(population) 中国 600 美国 100 加拿大 100 英国 200 法 ...
- 经典SQL面试题(转)
http://www.cnblogs.com/kcher90/archive/2013/03/13/2957932.html 有三个表,如果学生缺考,那么在成绩表中就不存在这个学生的这门课程成绩的记录 ...
- linux配置防火墙打开3306端口
安装完MYSQL服务器后在本机所有操作都正常, 但在其它机器上远程访问这个MYSQL服务器时怎么都连接不上. shit! 怀疑是端口问题, 结果: telnet 192.168.1.245 33 ...
- Oracle 10g 数据库手动创建步骤
Oracle 数据库手动创建步骤 编写初始化参数文件 设置操作系统环境变量 创建实例 以管理员身份连接数据库 启动实例 create database 创建数据库 运行数据字典脚本 Oracle的网络 ...
- 内存泄露,GC相关
内存泄露就是对象不在GC的掌控之内 下面对象会发生内存泄露现象: 1.没有引用的对象 2.虚,软,弱 引用对象 GC引用的对象指的是 1.JavaStack中引用的对象 2.方法区中静态引用指向的对象 ...
- 【黑金原创教程】【TimeQuest】【第四章】内部延迟与其他
声明:本文为黑金动力社区(http://www.heijin.org)原创教程,如需转载请注明出处,谢谢! 黑金动力社区2013年原创教程连载计划: http://www.cnblogs.com/al ...
- SPS读书笔记1——均值比较(T检验,方差检验,非参数检验汇总)
均值比较.单样本T检验(One-sample Test))目的:检验单个变量的均值与给定的某个常数是否一致.)判断标准:p<0.05;t>1.98即认为是有显著差异的..独立样本T检验(I ...