F#正则表达式
此词法分析器允许您使用F#计算表达式以非常声明的方式定义基于正则表达式的规则。
打开 Lexer
让 定义=
lexerDefinitions {
做!addNextlineDefinition “NEWLINE” @ “(\ n \ r)| \ n | \ r”“
做!addIgnoreDefinition “WS” @ “\ s”
做!addDefinition “让” “让”
做!addDefinition “ID” “(?i)[az] [a-z0-9] *”
做!addDefinition “FLOAT” @ “[0-9] + \。[0-9] +”
做!addDefinition “INT” “[0-9] +”
做!addDefinition “OPERATOR” @ “[+ * =!/&| <> \ ^ \ - ] +”
}
通过这些定义,您可以执行词法分析器:
打开 Lexer
让 lex输入=
试试
让 y = Lexer.tokenize定义输入
printfn “%A” y
与 e - > printf “%s” e.Message
lex “让a = 5”
这将导致:
seq [
{name = “LET” ; text = “let” ; pos = 0 ; column = 0 ; line = 0 ;};
{name = “ID” ; text = “a” ; pos = 4 ; column = 4 ; line = 0 ;};
{name = “OPERATOR” ; text = “=” ; pos = 6 ;列= 6 ; line = 0 ;};
{name = “INT” ; text = “5” ; pos = 8 ; column = 8 ; line = 0 ;}]
词法分析器的代码分为三个部分。第一部分是使用F#计算表达式的状态monad。这使得声明性方法(见上文)能够设置词法分析器规则。
模块 StateMonad
类型 State <'s,'a> = State of ('s - >('a *'s))
let runState(State f)= f
type StateBuilder()=
member b.Return(x)= State(fun s - >(x,s))
member b.Delay(f)= f():State <'s,'a>
member b.Zero()= State(fun s - >((),s))
成员 b.Bind(状态p,休息)=状态(有趣的 s - > 让 v,s2 = p s in (runState(rest v))s2)
成员 b.Get()=状态(有趣 的 - >(s,s) ))
成员 b.Put s = State(fun _ - >((),s))
第二部分是用于定义词法分析器规则的组合器。有三个主要组合器: AddDefinition允许您定义名称/正则表达式对, AddIgnoreDefinition允许您定义词法分析器应忽略的字符, AddNextlineDefinition允许您定义哪些字符确定新行。
输入 LexDefinitions =
{regexes:string list;
名称:字符串列表;
nextlines:布尔列表;
忽略:布尔列表; }
让 buildDefinition命名模式nextLine ignore =
州{
让!x = state.Get()
做!state.Put {regexes = x.regexes @ [sprintf @ “(?<%s>%s)” name pattern];
names = x.names @ [name];
nextlines = x.nextlines @ [nextLine];
ignores = x.ignores @ [ignore]}
}
让 addDefinition名模式= buildDefinition名字模式 假 虚假
让利 addIgnoreDefinition名模式= buildDefinition名字模式 假 真
让 addNextlineDefinition名模式= buildDefinition名称模式 真 真实
最后一部分是执行标记化的代码。它使用Seq.unfold方法创建令牌列表。Unfold是一个函数,它接受一个项目并从中生成一个新项目列表。它与Seq.fold相反,它接受一个项目列表并将其转换为单个项目。tokenize函数使用Seq.unfold生成每个标记,同时跟踪当前行号,该行中的位置以及输入字符串中的位置。
类型 Token =
{name:string;
text:string;
pos:int;
column:int;
line:int}
让 createLexDefs pb =(runState pb){regexes = []; names = []; nextlines = []; ignores = []} |> snd
let tokenize lexerBuilder(str:string)=
let patterns = createLexDefs lexerBuilder
let combinedRegex = Regex(List.fold(fun acc reg - > acc + “|” + reg)(List.head patterns。 regexes)(List.tail patterns.regexes))
让 nextlineMap = List.zip patterns.names patterns.nextlines |> Map.ofList
let ignoreMap = List.zip patterns.names patterns.ignores |> Map.ofList
let tokenizeStep(pos, line,lineStart)=
if pos> = str.Length then
没有
否则
让 getMatchedGroupName(grps:GroupCollection)names = List.find(fun (name:string) - > grps。[name] .Length> 0)名称
匹配 combinedRegex.Match(str,pos) with
| 公吨 时 mt.Success && POS = mt.Index - >
让 组名= getMatchedGroupName mt.Groups patterns.names
让 柱= mt.Index - lineStart
让 nextPos = POS + mt.Length
让 (nextLine,nextLineStart)= 如果 nextlineMap.Item groupName 然后 (行+ 1,nextPos) else (line,lineStart)
let token = if ignoreMap.Item groupName
then None
else Some {
name = groupName;
text = mt.Value;
post = post;
line = line;
column = column; }
一些(令牌,(nextPos,nextLine,nextLineStart))
| 否则 - >
let textAroundError = str.Substring(pos,min(pos + 5)str.Length)
raise(ArgumentException(sprintf “Lexing error in line:%d and column:%d near text:%s” line(pos - lineStart)textAroundError))
Seq.unfold tokenizeStep(0, 0, 0)|> Seq.filter(有趣 X - > x.IsSome)|> Seq.map(有趣 X - > x.Value)
最后,这是使用XUnit.Net编写的单元测试:
模块 LexerFacts
开放 的xUnit
开放 词法
开放 System.Linq的
让 simpleDefs =
州{
做!addNextlineDefinition “NextLine” “/”
做!addIgnoreDefinition “IgnoredSymbol” “= +”
做!addDefinition “String” “[a-zA-Z] +”
做!addDefinition “Number” “\ d +”
做!addDefinition “名称” “马特”
}
[<事实>]
让 Will_return_no_tokens_for_empty_string()=
让 令牌= Lexer.tokenize simpleDefs “”
Assert.Equal(0,tokens.Count())
[<事实>]
让 Will_throw_exception_for_invalid_token()=
让 代币= Lexer.tokenize simpleDefs “ - ”
让 EX = Assert.ThrowsDelegateWithReturn(乐趣 () - > 向上转型 tokens.Count())|> Record.Exception
Assert.NotNull(前)
Assert.True(例如:?System.ArgumentException)
[<事实>]
让 Will_ignore_symbols_defined_as_ignore_symbols()=
让 令牌= Lexer.tokenize simpleDefs “=========”
Assert.Equal(0,tokens.Count())
[<事实>]
let Will_get_token_with_correct_position_and_type()=
let tokens = Lexer.tokenize simpleDefs “1one = 2 = two”
Assert.Equal(“Number”,tokens.ElementAt(2).name)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(5,tokens.ElementAt(2).pos)
Assert.Equal(5,tokens.ElementAt(2).column)
Assert.Equal(0,tokens.ElementAt(2).line)
[<事实>]
let Will_tokenize_string_with_alernating_numbers_and_strings()=
let tokens = Lexer.tokenize simpleDefs “1one2two”
Assert.Equal(“1”,tokens.ElementAt(0).text)
Assert.Equal(“one”,tokens.ElementAt(1).text)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(“two”,tokens.ElementAt(3).text)
[<事实>]
let Will_increment_line_with_newline_symbol()=
let tokens = Lexer.tokenize simpleDefs “1one /
2two ” Assert.Equal(“Number”,tokens.ElementAt(2).name)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(5,tokens.ElementAt(2).pos)
Assert.Equal(0,tokens.ElementAt(2).column)
Assert.Equal(1,tokens.ElementAt(2).line)
[<事实>]
let Will_give_priority_to_lexer_definitions_defined_earlier()=
let tokens = Lexer.tokenize simpleDefs “Matt”
Assert.Equal(“String”,tokens.ElementAt(0).name)
F#正则表达式的更多相关文章
- Codeforce727B --- Bill Total Value(字符串处理 正则表达式)
先说一下正则表达式 %*[a-z]表示忽略前面的小写字符,%[0-9]表示把紧接着非字符的连续数字存入t字符串中去; 从"abc123de4f"中得到"123" ...
- JQuery中trim函数的具体实现代码
由于Javascript 1.8.1 之前的版本,没有内置 trim 函数,所以 JQuery 对它有自己的实现.不同的JQuery版本,trim函数的实现也不尽相同. 阅读本文需要掌握正则表达式用法 ...
- vimer
vimer 第1.0章.统一概念 不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现 ...
- WinMerge 过滤器用法
WinMerge是一款开源的文件对比合并工具.http://winmerge.org/WinMerge提供了“过滤器”功能,可以在对比时排除特定的目录或文件. 1.编辑过滤规则工具 -> 过滤器 ...
- 菜鸟vimer成长记——第1章、统一概念
不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现),那概念就暂时没那么重要了. 目的 ...
- pkill命令详解
基础命令学习目录首页 原文链接:http://www.mamicode.com/info-detail-2315063.html 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程, ...
- pkill详解
pkill详解 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程,pkill和killall应用方法差不多,也是直接杀死运行中的程序:如果您想杀掉单个进程,请用kill来杀掉. 二 ...
- mongodb增删改查操作
Note:mongodb存储的是文档,且文档是json格式的对象,所以增删改查都必须是json格式对象. 注:mongodb常用库和表操作,但mongodb在插入数据时,不需要先创建表. show d ...
- Mysql_以案例为基准之查询
查询数据操作
- F#之旅9 - 正则表达式
今天,cozy群有个群友发了条正则,问正则匹配相关的问题.虽然他的问题用html selector去处理可能更好,但是我也再一次发现:我忘了正则怎么写的了! 忘掉正则是有原因的,这篇文章会简单记录下F ...
随机推荐
- spring boot sso
https://hellokoding.com/hello-single-sign-on-sso-with-json-web-token-jwt-spring-boot/ https://github ...
- redhad安装gcc问题---解决依赖问题
在安装gcc时需要cpp和cloog-ppl 但是在安装cpp的时候需要这个依赖: libmpfr.so.1()(64bit) is needed by cpp-4.4.6-3.el6.x86_64 ...
- 跟我学ASP.NET MVC之三:完整的ASP.NET MVC程序-PartyInvites
摘要: 在这篇文章中,我将在一个例子中实际地展示MVC. 场景 假设一个朋友决定举办一个新年晚会,她邀请我创建一个用来邀请朋友参加晚会的WEB程序.她提出了四个注意的需求: 一个首页展示这个晚会 一个 ...
- python - hash类型操作
Redis在内存中存储hash类型是以name对应一个字典形式存储的 常用操作 在name对应的hash中获取根据key获取valuehget(name,key) 在name 对应的hash 中设备键 ...
- celery学习笔记2
1.定义: Celery是一个异步的任务队列(也叫做分布式任务队列) 2.工作结构 Celery分为3个部分 (1)worker部分负责任务的处理,即工作进程(我的理解工作进程就是你写的python代 ...
- centos7服务器无GUI情况下安装使用Xvfb、selenium、chrome和selenium-server
最近需要用到selenium浏览器抓取,在windows下对照chrome浏览器开发的代码,在linux服务器上换成phantomjs驱动后,却不能运行了,通过截图发现phantomjs渲染效果和ch ...
- proxy.go 源码阅读
) for { select { case <-otherSide: complete <- true ...
- 【二分+最小树形图】UVA11865 比赛网络
Description During 2009 and 2010 ICPC world finals, the contest was webcasted via world wide web. Se ...
- resteasy简单实例
1.建一个maven web项目 新建一个maven项目,next,第一个框不要勾选 选择maven-archetype-webapp,建一个web项目 键入项目组织id与项目id 一般此时搭建的只是 ...
- tomcat设置直接通过域名访问项目(不需要接 /项目名)
本文转自 : https://blog.csdn.net/qq_33647275/article/details/52585489 效果图 打开 tomcat - ->conf- ->se ...