自然语言处理 (NLP)问题都是序列化的.前馈神经网络,在单次前馈中对到来数据处理,假定所有输入独立,模式丢失.循环神经网络(recurrent neural network,RNN)对时间显式建模神经网络.RNN神经元可接收其他神经元加权输入.RNN神经元可与更高层建立连接,也可与更低层建立连接.隐含活性值在同一序列相邻输入间被记忆.2006年 LSTM.语音识别.语音合成.手写连体字识别.时间序列预测.图像标题生成.端到端机器翻译. RNN由神经元和连接权值构成任意有向图.输入神经元(inp…
自然语言处理,语音处理.文本处理.语音识别(speech recognition),让计算机能够"听懂"人类语音,语音的文字信息"提取". 日本富国生命保险公司花170万美元安装人工智能系统,客户语言转换文本,分析词正面或负面.智能客服是人工能智能公司研究重点.循环神经网络(recurrent neural network,RNN)模型. 模型选择.每一个矩形是一个向量,箭头表示函数.最下面一行输入向量,最上面一行输出向量,中间一行RNN状态.一对一,没用RNN,如…
递归神经网络可存储记忆神经网络,LSTM是其中一种,在NLP领域应用效果不错. 递归神经网络(RNN),时间递归神经网络(recurrent neural network),结构递归神经网络(recursive neural network).时间递归神经网络神经元间连接构成有向图,结构递归神经网络利用相似神经网络结构递归构造更复杂深度网络.两者训练属同一算法变体. 时间递归神经网络.传统神经网络FNN(Feed-Forward Neural Networks),前向反馈神经网络.RNN引入定向…
#RNN 循环神经网络 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data tf.set_random_seed(1) # set random seed # 导入数据 mnist = input_data.read_data_sets('MNIST_data', one_hot=True) # hyperparameters lr = 0.001 # learning rate t…
自然语言处理 - 维基百科,自由的百科全书 https://zh.wikipedia.org/wiki/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86 BEST PRACTICE 语音识别技术简史 https://mp.weixin.qq.com/s/wnPAnOaB0ydahZP-Da4Plw NLP领域预训练模型的现状及分析 https://mp.weixin.qq.com/s/vFsJE81Rs8C1zKoNv3K-bA 自然语…
LSTM based Conversation Models 本文介绍一种会话语言模型,结合了局部.全局的上下文,以及参与者的角色. 问题提出者 倾向于用"任何人"."如何"来提出问题. 问题回答者 倾向于使用指令性词汇(you, you're).模糊限制语(may, might)和与解决问题相关的词汇(sudo, check). Luan, Yi , Y. Ji , and M. Ostendorf . "LSTM based Conversation…
自然语言处理中算法设计有两大部分:分而治之 和 转化 思想.一个是将大问题简化为小问题,另一个是将问题抽象化,向向已知转化.前者的例子:归并排序:后者的例子:判断相邻元素是否相同(与排序). 这次总结的自然语言中常用的一些基本算法,算是入个门了. 递归 使用递归速度上会受影响,但是便于理解算法深层嵌套对象.而一些函数式编程语言会将尾递归优化为迭代. 如果要计算n个词有多少种组合方式?按照阶乘定义:n! = n*(n-1)*...*1 def func(wordlist): length = le…
卷积data的四个维度: batch, input channel, height, width Conv2d的四个维度: input channel, output channel, kernel, stride 时间序列data(输入)的三个维度: sequential-length(近似于NLP中一句话里几个单词), batch, input-size(一个单词几个字母) LSTM的三个维度: input-size, output-size, layers h0的三个维度: layers,…
[说在前面]本人博客新手一枚,象牙塔的老白,职业场的小白.以下内容仅为个人见解,欢迎批评指正,不喜勿喷![认真看图][认真看图] [补充说明]深度学习中的序列模型已经广泛应用于自然语言处理(例如机器翻译等).语音识别.序列生成.序列分析等众多领域! [再说一句]本文主要介绍深度学习中序列模型的演变路径,和往常一样,不会详细介绍各算法的具体实现,望理解! 一.循环神经网络RNN 1. RNN标准结构 传统神经网络的前一个输入和后一个输入是完全没有关系的,不能处理序列信息(即前一个输入和后一个输入是…
神经结构进步.GPU深度学习训练效率突破.RNN,时间序列数据有效,每个神经元通过内部组件保存输入信息. 卷积神经网络,图像分类,无法对视频每帧图像发生事情关联分析,无法利用前帧图像信息.RNN最大特点,神经元某些输出作为输入再次传输到神经元,可以利用之前信息. xt是RNN输入,A是RNN节点,ht是输出.对RNN输入数据xt,网络计算得输出结果ht,某些信息(state,状态)传到网络输入.输出ht与label比较得误差,用梯度下降(Gradient Descent)和Back-Propag…