F#正则表达式
此词法分析器允许您使用F#计算表达式以非常声明的方式定义基于正则表达式的规则。
打开 Lexer
让 定义=
lexerDefinitions {
做!addNextlineDefinition “NEWLINE” @ “(\ n \ r)| \ n | \ r”“
做!addIgnoreDefinition “WS” @ “\ s”
做!addDefinition “让” “让”
做!addDefinition “ID” “(?i)[az] [a-z0-9] *”
做!addDefinition “FLOAT” @ “[0-9] + \。[0-9] +”
做!addDefinition “INT” “[0-9] +”
做!addDefinition “OPERATOR” @ “[+ * =!/&| <> \ ^ \ - ] +”
}
通过这些定义,您可以执行词法分析器:
打开 Lexer
让 lex输入=
试试
让 y = Lexer.tokenize定义输入
printfn “%A” y
与 e - > printf “%s” e.Message
lex “让a = 5”
这将导致:
seq [
{name = “LET” ; text = “let” ; pos = 0 ; column = 0 ; line = 0 ;};
{name = “ID” ; text = “a” ; pos = 4 ; column = 4 ; line = 0 ;};
{name = “OPERATOR” ; text = “=” ; pos = 6 ;列= 6 ; line = 0 ;};
{name = “INT” ; text = “5” ; pos = 8 ; column = 8 ; line = 0 ;}]
词法分析器的代码分为三个部分。第一部分是使用F#计算表达式的状态monad。这使得声明性方法(见上文)能够设置词法分析器规则。
模块 StateMonad
类型 State <'s,'a> = State of ('s - >('a *'s))
let runState(State f)= f
type StateBuilder()=
member b.Return(x)= State(fun s - >(x,s))
member b.Delay(f)= f():State <'s,'a>
member b.Zero()= State(fun s - >((),s))
成员 b.Bind(状态p,休息)=状态(有趣的 s - > 让 v,s2 = p s in (runState(rest v))s2)
成员 b.Get()=状态(有趣 的 - >(s,s) ))
成员 b.Put s = State(fun _ - >((),s))
第二部分是用于定义词法分析器规则的组合器。有三个主要组合器: AddDefinition允许您定义名称/正则表达式对, AddIgnoreDefinition允许您定义词法分析器应忽略的字符, AddNextlineDefinition允许您定义哪些字符确定新行。
输入 LexDefinitions =
{regexes:string list;
名称:字符串列表;
nextlines:布尔列表;
忽略:布尔列表; }
让 buildDefinition命名模式nextLine ignore =
州{
让!x = state.Get()
做!state.Put {regexes = x.regexes @ [sprintf @ “(?<%s>%s)” name pattern];
names = x.names @ [name];
nextlines = x.nextlines @ [nextLine];
ignores = x.ignores @ [ignore]}
}
让 addDefinition名模式= buildDefinition名字模式 假 虚假
让利 addIgnoreDefinition名模式= buildDefinition名字模式 假 真
让 addNextlineDefinition名模式= buildDefinition名称模式 真 真实
最后一部分是执行标记化的代码。它使用Seq.unfold方法创建令牌列表。Unfold是一个函数,它接受一个项目并从中生成一个新项目列表。它与Seq.fold相反,它接受一个项目列表并将其转换为单个项目。tokenize函数使用Seq.unfold生成每个标记,同时跟踪当前行号,该行中的位置以及输入字符串中的位置。
类型 Token =
{name:string;
text:string;
pos:int;
column:int;
line:int}
让 createLexDefs pb =(runState pb){regexes = []; names = []; nextlines = []; ignores = []} |> snd
let tokenize lexerBuilder(str:string)=
let patterns = createLexDefs lexerBuilder
let combinedRegex = Regex(List.fold(fun acc reg - > acc + “|” + reg)(List.head patterns。 regexes)(List.tail patterns.regexes))
让 nextlineMap = List.zip patterns.names patterns.nextlines |> Map.ofList
let ignoreMap = List.zip patterns.names patterns.ignores |> Map.ofList
let tokenizeStep(pos, line,lineStart)=
if pos> = str.Length then
没有
否则
让 getMatchedGroupName(grps:GroupCollection)names = List.find(fun (name:string) - > grps。[name] .Length> 0)名称
匹配 combinedRegex.Match(str,pos) with
| 公吨 时 mt.Success && POS = mt.Index - >
让 组名= getMatchedGroupName mt.Groups patterns.names
让 柱= mt.Index - lineStart
让 nextPos = POS + mt.Length
让 (nextLine,nextLineStart)= 如果 nextlineMap.Item groupName 然后 (行+ 1,nextPos) else (line,lineStart)
let token = if ignoreMap.Item groupName
then None
else Some {
name = groupName;
text = mt.Value;
post = post;
line = line;
column = column; }
一些(令牌,(nextPos,nextLine,nextLineStart))
| 否则 - >
let textAroundError = str.Substring(pos,min(pos + 5)str.Length)
raise(ArgumentException(sprintf “Lexing error in line:%d and column:%d near text:%s” line(pos - lineStart)textAroundError))
Seq.unfold tokenizeStep(0, 0, 0)|> Seq.filter(有趣 X - > x.IsSome)|> Seq.map(有趣 X - > x.Value)
最后,这是使用XUnit.Net编写的单元测试:
模块 LexerFacts
开放 的xUnit
开放 词法
开放 System.Linq的
让 simpleDefs =
州{
做!addNextlineDefinition “NextLine” “/”
做!addIgnoreDefinition “IgnoredSymbol” “= +”
做!addDefinition “String” “[a-zA-Z] +”
做!addDefinition “Number” “\ d +”
做!addDefinition “名称” “马特”
}
[<事实>]
让 Will_return_no_tokens_for_empty_string()=
让 令牌= Lexer.tokenize simpleDefs “”
Assert.Equal(0,tokens.Count())
[<事实>]
让 Will_throw_exception_for_invalid_token()=
让 代币= Lexer.tokenize simpleDefs “ - ”
让 EX = Assert.ThrowsDelegateWithReturn(乐趣 () - > 向上转型 tokens.Count())|> Record.Exception
Assert.NotNull(前)
Assert.True(例如:?System.ArgumentException)
[<事实>]
让 Will_ignore_symbols_defined_as_ignore_symbols()=
让 令牌= Lexer.tokenize simpleDefs “=========”
Assert.Equal(0,tokens.Count())
[<事实>]
let Will_get_token_with_correct_position_and_type()=
let tokens = Lexer.tokenize simpleDefs “1one = 2 = two”
Assert.Equal(“Number”,tokens.ElementAt(2).name)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(5,tokens.ElementAt(2).pos)
Assert.Equal(5,tokens.ElementAt(2).column)
Assert.Equal(0,tokens.ElementAt(2).line)
[<事实>]
let Will_tokenize_string_with_alernating_numbers_and_strings()=
let tokens = Lexer.tokenize simpleDefs “1one2two”
Assert.Equal(“1”,tokens.ElementAt(0).text)
Assert.Equal(“one”,tokens.ElementAt(1).text)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(“two”,tokens.ElementAt(3).text)
[<事实>]
let Will_increment_line_with_newline_symbol()=
let tokens = Lexer.tokenize simpleDefs “1one /
2two ” Assert.Equal(“Number”,tokens.ElementAt(2).name)
Assert.Equal(“2”,tokens.ElementAt(2).text)
Assert.Equal(5,tokens.ElementAt(2).pos)
Assert.Equal(0,tokens.ElementAt(2).column)
Assert.Equal(1,tokens.ElementAt(2).line)
[<事实>]
let Will_give_priority_to_lexer_definitions_defined_earlier()=
let tokens = Lexer.tokenize simpleDefs “Matt”
Assert.Equal(“String”,tokens.ElementAt(0).name)
F#正则表达式的更多相关文章
- Codeforce727B --- Bill Total Value(字符串处理 正则表达式)
先说一下正则表达式 %*[a-z]表示忽略前面的小写字符,%[0-9]表示把紧接着非字符的连续数字存入t字符串中去; 从"abc123de4f"中得到"123" ...
- JQuery中trim函数的具体实现代码
由于Javascript 1.8.1 之前的版本,没有内置 trim 函数,所以 JQuery 对它有自己的实现.不同的JQuery版本,trim函数的实现也不尽相同. 阅读本文需要掌握正则表达式用法 ...
- vimer
vimer 第1.0章.统一概念 不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现 ...
- WinMerge 过滤器用法
WinMerge是一款开源的文件对比合并工具.http://winmerge.org/WinMerge提供了“过滤器”功能,可以在对比时排除特定的目录或文件. 1.编辑过滤规则工具 -> 过滤器 ...
- 菜鸟vimer成长记——第1章、统一概念
不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现),那概念就暂时没那么重要了. 目的 ...
- pkill命令详解
基础命令学习目录首页 原文链接:http://www.mamicode.com/info-detail-2315063.html 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程, ...
- pkill详解
pkill详解 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程,pkill和killall应用方法差不多,也是直接杀死运行中的程序:如果您想杀掉单个进程,请用kill来杀掉. 二 ...
- mongodb增删改查操作
Note:mongodb存储的是文档,且文档是json格式的对象,所以增删改查都必须是json格式对象. 注:mongodb常用库和表操作,但mongodb在插入数据时,不需要先创建表. show d ...
- Mysql_以案例为基准之查询
查询数据操作
- F#之旅9 - 正则表达式
今天,cozy群有个群友发了条正则,问正则匹配相关的问题.虽然他的问题用html selector去处理可能更好,但是我也再一次发现:我忘了正则怎么写的了! 忘掉正则是有原因的,这篇文章会简单记录下F ...
随机推荐
- sql server 高可用故障转移(2)
添加网卡心跳线 目标: 二台sql服务器需要添加网卡心跳线,用于sql server内部数据传输 计算机名 Ip信息 心跳线 Hsr1 192.168.2.50 (ipv4 ip) 255.25 ...
- Spring提供的用于访问Rest服务的客户端:RestTemplate实践
什么是RestTemplate? RestTemplate是Spring提供的用于访问Rest服务的客户端,RestTemplate提供了多种便捷访问远程Http服务的方法,能够大大提高客户端的编写效 ...
- 富文本编辑器UEditor自定义工具栏(三、自定义工具栏功能按钮图标及工具栏样式简单修改)
导读 富文本编辑器UEditor提供丰富了定制配置项,如果想设置个性化的工具栏按钮图标有无办法呢?答案是肯定的!前两篇博文简要介绍了通过将原工具栏隐藏,在自定义的外部按钮上,调用UEditor各命令实 ...
- Backbone.js 和 Nodejs 的一些共同点搞不清楚
前端方面 我用 Backbone.js 做过前端的开发,印象里就是后端按模型对象的属性把 JSON 数据发过来,我写在模板里渲染就好了 模板加载( underscore.js ) 建立模型 渲染视图 ...
- javascript执行上的一点总结
今天在为软件工程的的作业准备的时候发现代码执行上的一些问题,暴露了我的一些缺陷,先上代码 <html> <head> <script type="text/ja ...
- struts2(三)---struts2中的服务端数据验证框架validate
struts2为我们提供了一个很好的数据验证框架–validate,该框架可以很方便的实现服务端的数据验证. ActionSupport类提供了一个validate()方法,当我们需要在某一个acti ...
- Javascript书籍推荐----(步步为赢)
在此分享一些高清javascript书籍,因为我也没有全部看完,所以在这只是推荐,不同的书适合不同的人,所有的书在网上均有电子书,若找不到,请在博客留言,我有大部分书籍的电子稿.希望有更多的好书分享出 ...
- Git常用命令解说
http://blog.csdn.net/hangyuanbiyesheng/article/details/6731629 1. Git概念 1.1. Git库中由三部分组成 Gi ...
- Rmq Problem/mex BZOJ3339 BZOJ3585
分析: 一开始没看懂题... 后来想用二分答案却不会验证... 之后,想到用主席树来维护... 建一个权值线段树,维护出这个权值以前所有的点最晚在哪里出现... 之后,查一下是不是比查询区间的l断点大 ...
- 【小白学C#】谈谈C#多播委托因异常而终止的解决方案
一.前言 前几天,马三在与朋友闲聊技术的时候,朋友忽然抛出一个问题,把马三难倒了,本着求知的精神,回来以后马三就查阅了相关资料并做了一些实验,终于把问题搞明白了,因此写下本篇博客记录一下.首先,问题是 ...