一:LR(0),SLR(1),规范LR(1),LALR(1)的关系     首先LL(1)分析法是自上而下的分析法.LR(0),LR(1),SLR(1),LALR(1)是自下而上的分析法.            自上而下:从开始符号出发,根据产生式规则推导给定的句子.用的是推导            自下而上:从给定的句子规约到文法的开始符号.用的是归约      1: SLR(1)与LR(0)的关系:            SLR(1)与LR(0):简单的LR语法分析技术(即SLR(1)分析技…
前言:考虑到这几种文法如果把具体内容讲下来肯定篇幅太长,而且繁多的符号对初学者肯定是极不友好的,而且我相信看这篇博客的人已经对这几个文法已经有所了解了,本篇博客的内容只是对 这几个文法做一下对比,加深大家对这几个文法的理解.更详细的细节,初学者可以看看这个课件https://files-cdn.cnblogs.com/files/henuliulei/%E7%AC%AC5%E7%AB%A0.ppt,或者其他相关的博客. 一:五种文法的演变 1.1 LL(1)文法 LL(1)文法是自上而下的分析方…
系列导航 (一)语法分析介绍 (二)LR(0) 语法分析 (三)LALR 语法分析 (四)二义性文法 (五)错误恢复 (六)构造语法分析器 首先,需要介绍下 LALR 语法分析的基础:LR(0) 语法分析. 还是以之前的算式文法为例: $E \to E + T$ $E \to T$ $T \to T * F$ $T \to F$ $F \to id$ $F \to (E)$ 先来看一下 $(id+id)$ 是如何被 LR(0) 语法分析执行的.这里使用 $\$$ 这个特殊符号来标记输入的结束.…
转载于https://blog.csdn.net/johan_joe_king/article/details/79051993#comments 学编译原理的时候,感觉什么LL(1).LR(0).SLR(1).LALR(1)思想满天飞. 而且做题的时候,一不留意,一道题就写了三页纸了. 就拿今天这个玩意儿来讲,我真的是考试前花了最多的时间,搞懂了(差不多搞懂了)这是个什么玩意儿. 以下内容,做题的话应该够了而且很!容!易!理!解!,其他学术情况恕博主也是个菜鸡. 废话就不多扯了,能搜到看到这篇…
# include <stdio.h> # include <string.h> //存储LR(0)分析表 struct node { char ch; int num; }; struct node table[]={ {},{},{},{},{},{},{},{},{}, {},{},{},{},{},{},{},{},{}, {},{},{},{},{},{},{},{},{}, {},{},{},{},{},{},{},{},{}, {},{},{},{},{},{},{}…
最近在复习编译原理,考试之前以为自己懂了,眼高手低就没去实践.结果一考试出问题了.... 学习就要脚踏实地,容不得半点模糊.凭着侥幸心理很危险的.以后要引以为戒啊. 特别写出这篇文章 :一来总结一下这几天的收获.二来与君共勉. 一.概念 1.概念解释 1.活前缀:不包含句柄右侧任一符号的规范句型的前缀称为该句型的活前缀.                 例如:Bab是下面那个文法的一个句型,其中b是句柄.                 那么针对这个句型的活前缀有:ε.B.Ba 和Bab    …
转载于https://blog.csdn.net/Johan_Joe_King/article/details/79058597?utm_medium=distribute.pc_relevant.none-task-blog-baidujs-3 上回把文法的LR(0)项目集规范族搞了半天,革命进行了一半. 鼓捣了半天整了一堆项目集规范族出来,总是有用的呀,接下来就是在那堆的基础上构造分析表了,构造好分析表就能分析输入串了.本文主要讲LR(0)分析表的构造和输入串分析过程. 我这个菜鸡都觉得是通…
原理 数据结构 // GO private static Map<Map<Integer,String>,Integer> GO = new HashMap<Map<Integer,String>,Integer>(); // 规范族集 C private static Map<Integer,Map<String,List<String>>> C = new HashMap<Integer, Map<Stri…
一.WebSocket是HTML5出的东西(协议),也就是说HTTP协议没有变化,或者说没关系,但HTTP是不支持持久连接的(长连接,循环连接的不算)首先HTTP有1.1和1.0之说,也就是所谓的keep-alive,把多个HTTP请求合并为一个,但是Websocket其实是一个新协议,跟HTTP协议基本没有关系,只是为了兼容现有浏览器的握手规范而已,也就是说它是HTTP协议上的一种补充可以通过这样一张图理解有交集,但是并不是全部.另外Html5是指的一系列新的API,或者说新规范,新技术.Ht…
<A href="javascript:void(0)">点击</a>点击链接后不会回到网页顶部<A href="#">点击</a>  点击后会回到网面顶部…
exit(0):正常运行程序并退出程序: exit(1):非正常运行导致退出程序: return():返回函数,若在主函数中,则会退出函数并返回一值. 详细说: 1. return返回函数值,是关键字: exit 是一个函数. 2. return是语言级别的,它表示了调用堆栈的返回:而exit是系统调用级别的,它表示了一个进程的结束. 3. return是函数的退出(返回):exit是进程的退出. 4. return是C语言提供的,exit是操作系统提供的(或者函数库中给出的).exit是一个库…
1,什么是环回地址??与127.0.0.1的区别呢?? 环回地址是主机用于向自身发送通信的一个特殊地址(也就是一个特殊的目的地址). 可以这么说:同一台主机上的两项服务若使用环回地址而非分配的主机地址,就可以绕开TCP/IP协议栈的下层.(也就是说:不用再通过什么链路层,物理层,以太网传出去了,而是可以直接在自己的网络层,运输层进行处理了) IPv4的环回地址为:127.0.0.0到127.255.255.255都是环回地址(只是有两个特殊的保留),此地址中的任何地址都不会出现在网络中 网络号为…
1, 先来说下回送地址(Loopback Address): 回送地址是主机用于向自身发送通信的一个特殊地址(也就是一个特殊的目的地址).可以这么说:同一台主机上的两项服务若使用回送地址而非分配的主机地址,就可以绕开TCP/IP协议栈的下层.(也就是说:不用再通过什么链路层,物理层,以太网传出去了,而是可以直接在自己的网络层,传输层进行处理了) IPv4的回送地址为:127.0.0.0到127.255.255.255都是回送地址(只是有两个特殊的保留),此地址中的任何地址都不会出现在网络中网络号…
从<JSP & Servlet 学习笔记>的第一章,了解到web容器:“Web容器是Servlet/jsp唯一认得的http服务器”. 在Java中,容器的类型有多种,这里要说的是Web容器,他在整个servlet请求路线上的位置如下:   做java开发的人一般都在用tomcat来作为web服务器,但是从上图可以看到这里其实http服务器和web容器之间是有区别的,那么tomcat算是一个http服务器还是web容器呢?假如tomcat只是一个web容器,那么在他的链条上对应的htt…
<!DOCTYPE> 声明不是 HTML 标签:它是指示 web 浏览器关于页面使用哪个 HTML 版本进行编写的指令. 提示:请始终向 HTML 文档添加 <!DOCTYPE> 声明,这样浏览器才能获知文档类型. 在 HTML 4.01 中,<!DOCTYPE> 声明引用 DTD,因为 HTML 4.01 基于 SGML.DTD 规定了标记语言的规则,这样浏览器才能正确地呈现内容. HTML5 不基于 SGML,所以不需要引用 DTD. 在 HTML 4.01 中有三…
Atitit 表达式原理 语法分析 原理与实践 解析java的dsl  递归下降是现阶段主流的语法分析方法 于是我们可以把上面的语法改写成如下形式:1 合并前缀1 语法分析有自上而下和自下而上两种分析方法2 递归下降是现阶段主流的语法分析方法,2 于是我们可以把上面的语法改写成如下形式: 1)       Operator="+" | "-" | "*" | "/" 2)       Expression=<数字>…
[转] 一:LR(0),SLR(1),规范LR(1),LALR(1)的关系     首先LL(1)分析法是自上而下的分析法.LR(0),LR(1),SLR(1),LALR(1)是自下而上的分析法.            自上而下:从开始符号出发,根据产生式规则推导给定的句子.用的是推导            自下而上:从给定的句子规约到文法的开始符号.用的是归约      1: SLR(1)与LR(0)的关系:            SLR(1)与LR(0):简单的LR语法分析技术(即SLR(1…
编译原理:LL(1),LR(0),SLR(1),LALR(1),LR(1)对比 LL(1)定义:一个文法G是LL(1)的,当且仅当对于G的每一个非终结符A的任何两个不同产生式 A→α|β,下面的条件成立:SELECT( A→α)∩SELECT( A→β)=dd,其中, α|β不能同时 ε. 解释:LL(1)的意思是,第一个L,指的是从左往右处理输入,第二个L,指的是它为输入生成一个最左推导.1指的是向前展望1个符号. LL(1)文法是上下文无关文法的一个子集.它用的方法是自顶向下的(递归式的处理…
写完词法部分,又有很多杂事,周末终于有空来实现伟大的语法解析部分了. 撸完代码之后发现,程序太短了,不算上状态机,才186行(含注释),关键代码不到100行.运行调试过后,发现还行.居然可以解析OneThink里面的function.php.这个文件堪称Php程序的集大成者,里面什么妖魔鬼怪都有,调试的时候真是一把辛酸泪.当然我也是不会说的,哈 有鉴于程序太短,所以我准备详细地来说说,以免大家不太明白其中奥妙:) 我们知道,语法解析一般有LL(1),LR(0),SLR(1),LALR(1),LR…
ANSI C grammar Python grammar 怎么识别LL(1) LR(0) SLR(1) 等文法,一个不错的解答. http://stackoverflow.com/questions/8496642/how-to-identify-whether-a-grammar-is-ll1-lr0-or-slr1 关于LL parser的wiki http://en.wikipedia.org/wiki/LL_parser 关于 predictive parser/ recursive…
生成多维高斯分布随机样本 生成多维高斯分布所需要的均值向量和方差矩阵 这里使用numpy中的多变量正太分布随机样本生成函数,按照要求设置均值向量和协方差矩阵.以下设置两个辅助函数,用于指定随机变量维度,生成相应的均值向量和协方差矩阵. import numpy as np from numpy.random import multivariate_normal from math import sqrt 均值向量生成函数 输入: n:指定随机样本的维度 输出: m1,m2:正类样本和负类样本的均…
TensorFlow基础 1.概念 TF使用图表示计算任务,图包括数据(Data).流(Flow).图(Graph) 图中节点称为op,一个op获得多个Tensor Tensor为张量,TF中用到的数据都是Tensor 图必须在会话中启动 示例 计算两个矩阵的乘积, x = tf.constant([[1.0,2.0,3.0],[1.0,2.0,3.0],[1.0,2.0,3.0]]) y = tf.constant([[0,0,1.0],[0,0,1.0],[0,0,1.0]]) z = tf…
在一个月前,我就已经介绍了yolo目标检测的原理,后来也把tensorflow实现代码仔细看了一遍.但是由于这个暑假事情比较大,就一直搁浅了下来,趁今天有时间,就把源码解析一下.关于yolo目标检测的原理请参考前面一篇文章:第三十五节,目标检测之YOLO算法详解. 一 准备工作 在讲解源码之前,我们需要做一些准备工作: 下载源码,本文所使用的yolo源码来源于网址:https://github.com/hizhangp/yolo_tensorflow 下载训练所使用的数据集,我们仍然使用以VOC…
Keras提供两种学习率适应方法,可通过回调函数实现. 1. LearningRateScheduler keras.callbacks.LearningRateScheduler(schedule) 该回调函数是学习率调度器. 参数 schedule:函数,该函数以epoch号为参数(从0算起的整数),返回一个新学习率(浮点数) 代码 import keras.backend as K from keras.callbacks import LearningRateScheduler def…
七 测试网络 模型测试包含于test.py文件,Detector类的image_detector()函数用于检测目标. import os import cv2 import argparse import numpy as np import tensorflow as tf import yolo.config as cfg from yolo.yolo_net import YOLONet from utils.timer import Timer ''' 用于测试 ''' class D…
When training deep neural networks, it is often useful to reduce learning rate as the training progresses. This can be done by using pre-defined learning rate schedules or adaptive learning rate methods. In this article, I train a convolutional neura…
很遗憾没有在规定的时间点(2018-9-25 12:00:00)完成所有的功能并上传数据,只做到写了模型代码并只跑了一轮迭代,现将代码部分贴出. import keras from keras.layers import Conv2D, MaxPooling2D, Flatten, Conv3D, MaxPooling3D from keras.layers import Input, LSTM, Embedding, Dense, Dropout, Reshape from keras.mod…
MD5 的特性 MD5 是一种加密算法,在调用这个算法的时候,提供一个密码的明文, 调用的结果,得到一个 32 位长度的密文: MD5 算法的特性:相同的字符串,如果多次调用 md5 算法,得到的结果,完全一样: MD5 算法,无法被逆向解密: 但是,基于 md5 算法的第二个特性,我们可以进行碰撞暴力破解:(MD5 存在被暴力破解的安全性问题) 为了解决 简单的明文密码,被 md5 加密后,通过 暴力破解的安全性问题, 然后就出现了加盐的MD5加密: 目前,md5的暴力破解,又升级了,升级到了…
认识 梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模), 我感觉, 其实就是偏导数向量方向呗, 沿着这个向量方向可以找到局部的极值. from random import random def gradient_down(func, part_df_func, var_num, rate=0.1, max_iter=10000, tolerance=1e-10): ""&quo…
参考:https://pytorch.org/docs/master/optim.html#how-to-adjust-learning-rate torch.optim.lr_scheduler提供了几种方法来根据迭代的数量来调整学习率 自己手动定义一个学习率衰减函数: def adjust_learning_rate(optimizer, epoch, lr): """Sets the learning rate to the initial LR decayed by…