对于神经网络而言,每一个样本的输入与输入直接都是独立的,即预测的结果之间并没有联系 而对于RNN而言:不仅仅是有当前的输入,而且上一层的隐藏层也将进行输入,用于进行结果的预测.因此每一个输入都与之前的输入可以通过隐藏层的输入而产生联系. 这种特性在自然语言的处理中使用较广,即当前输入预测下一个词,与上一层隐藏层的传入有关 RNN的前向传播 比如预测ot结果,即输入xt,预测下一个词的结果即为ot, st表示的是当前隐藏层的个数,V表示将st进行np.argmax求得预测类别, 使用softmax…
问题:LSTM的输出值output和state是否是一样的 1. rnn.LSTMCell(num_hidden, reuse=tf.get_variable_scope().reuse)  # 构建单层的LSTM网络 参数说明:num_hidden表示隐藏层的个数,reuse表示LSTM的参数进行复用 2.rnn.DropoutWrapper(cell, output_keep_prob=keep_prob) # 表示对rnn的输出层进行dropout 参数说明:cell表示单层的lstm,o…
1. tf.nn.moments(x, axes=[0, 1, 2])  # 对前三个维度求平均值和标准差,结果为最后一个维度,即对每个feature_map求平均值和标准差 参数说明:x为输入的feature_map, axes=[0, 1, 2] 对三个维度求平均,即每一个feature_map都获得一个平均值和标准差 2.with tf.control_dependencies([train_mean, train_var]): 即执行with里面的操作时,会先执行train_mean 和…
卷积神经网络:下面要说的这个网络,由下面三层所组成 卷积网络:卷积层 + 激活层relu+ 池化层max_pool组成 神经网络:线性变化 + 激活层relu 神经网络: 线性变化(获得得分值) 代码说明: 代码主要有三部分组成 第一部分: 数据读入 第二部分:模型的构建,用于生成loss和梯度值 第三部分:将数据和模型输入,使用batch_size数据进行模型参数的训练 第一部分:数据读入 第一步:输入文件的地址 第二步: 创建列表,用于文件数据的保存 第三步:使用pickle.load进行数…
1. rnn.BasicLSTMCell(num_hidden) #  构造单层的lstm网络结构 参数说明:num_hidden表示隐藏层的个数 2.tf.nn.dynamic_rnn(cell, self.x, tf.float32) # 执行lstm网络,获得state和outputs 参数说明:cell表示实例化的rnn网络,self.x表示输入层,tf.float32表示类型 3. tf.expand_dim(self.w, axis=0) 对数据增加一个维度 参数说明:self.w表…
LSTM网络是有LSTM每个单元所串接而成的, 从下面可以看出RNN与LSTM网络的差异, LSTM主要有控制门单元和输出门单元组成 控制门单元又是由遗忘门单元和记忆门单元的加和组成. 1.控制门单元, 与最后的输出层做相乘操作,决定什么样的信息会被保留 2.遗忘门单元:上一层的控制门单元Ct-1直接与ft进行相乘操作,决定什么样的信息会被遗弃 3.记忆门单元: 将输入的结果it 与 新数据形成的控制参数,进行相乘操作,决定什么样的数据会被保留 4.控制门单元的更新操作Ct, 即将记忆门单元和遗…
1.AlexNet是2012年最早的第一代神经网络,整个神经网络的构架是8层的网络结构.网络刚开始使用11*11获得较大的感受野,随后使用5*5和3*3做特征的提取,最后使用3个全连接层做得分值得运算,使用的是softmax分类器 2. VGG-net,网络的特点是全部使用3*3的卷积,通常有两个版本一个是16-VGG和19-VGG,每一进行完一次maxpool,都进行一次维度的提升,为了减少由于降维压缩而导致的信息损失.最后使用3个全连接层进行得分值得预测,使用的是softmax计算损失值…
对于图像的目标检测任务:通常分为目标的类别检测和目标的位置检测 目标的类别检测使用的指标:准确率, 预测的结果是类别值,即cat 目标的位置检测使用的指标:欧式距离,预测的结果是(x, y, w, h) x和y表示的是左上角的位置,w和h表示的是矩形框的宽和高 目标检测是分类和回归都进行的一种算法 对于位置的回归而言,使用全连接层获得结果的4个输出,使用欧式距离计算损失值 对图像物体进行卷积,对卷积后的特征图分开进行计算,一条通路计算回归,一条通路计算分类 目标检测的实际操作步骤: 第一步:下载…
目标检测的选框操作:第一步:找出一些边缘信息,进行图像合并,获得少量的边框信息 1.R-CNN, 第一步:进行图像的选框,对于选出来的框,使用卷积计算其相似度,选择最相似ROI的选框,即最大值抑制ROI,进行了选框的合并 第二步:对每一个选出来的框进行回归和分类,回归的目的是为了对选框位置信息进行调整,分类是获得目标结果. 存在的问题,对每一个图像都要进行一次卷积,很多地方都是进行了重复的卷积操作 2. Fast R-CNN 对于一个图像而言,先对图像进行卷积操作,然后选框选出图像的感兴趣的区域…
神经网络构架:主要时表示神经网络的组成,即中间隐藏层的结构 对图片进行说明:我们可以看出图中的层数分布: input layer表示输入层,维度(N_num, input_dim)  N_num表示输入层的样本个数, input_dim表示输入层的维度, 即变量的个数 hidden layer1 表示第一个隐藏层,维度(input_dim, hidden_dim1input_dim表示输入层的维度,hidden_dim1示隐藏层的维度 hidden layer2 表示第二个隐藏层,维度(hidd…