用python通过编写一个语义分析器,实现用LR分析法对文法G1: L→E E→E=T|T E→E+T|T T→T-F|F F→(E)|id 的文法分析,并输出过程

时间: 2023-07-19 16:27:12 浏览: 214
以下是一个简单的Python程序,实现对文法G1的LR分析: ``` # 定义文法规则 rules = { 'L': ['E'], 'E': ['E', '+', 'T'], ['E', '-', 'T'], ['T'], 'T': ['T', '*', 'F'], ['T', '/', 'F'], ['F'], 'F': ['(', 'E', ')'], ['id'], } # 定义Action表和Goto表 action = { 0: {'id': ('s', 5), '(': ('s', 4)}, 1: {'+': ('s', 6), '-': ('s', 7), '$': ('acc', None)}, 2: {'+': ('r', 2), '-': ('r', 2), '*': ('s', 8), '/': ('s', 9), ')': ('r', 2), '$': ('r', 2)}, 3: {'+': ('r', 4), '-': ('r', 4), '*': ('r', 4), '/': ('r', 4), ')': ('r', 4), '$': ('r', 4)}, 4: {'id': ('s', 5), '(': ('s', 4)}, 5: {'+': ('r', 6), '-': ('r', 6), '*': ('r', 6), '/': ('r', 6), ')': ('r', 6), '$': ('r', 6)}, 6: {'id': ('s', 5), '(': ('s', 4)}, 7: {'id': ('s', 5), '(': ('s', 4)}, 8: {'id': ('s', 5), '(': ('s', 4)}, 9: {'id': ('s', 5), '(': ('s', 4)}, } goto = { 0: {'E': 1, 'T': 2, 'F': 3}, 4: {'E': 10, 'T': 2, 'F': 3}, 6: {'T': 11, 'F': 3}, 7: {'T': 12, 'F': 3}, 8: {'F': 13}, 9: {'F': 14}, } # 定义LR分析器 class LRParser: def __init__(self, rules, action, goto): self.rules = rules self.action = action self.goto = goto def parse(self, input_tokens): stack = [0] input_index = 0 output = '' while True: state = stack[-1] token = input_tokens[input_index][0] if token in self.action[state]: action_type, action_value = self.action[state][token] if action_type == 's': stack.append(token) stack.append(action_value) input_index += 1 elif action_type == 'r': rule_index = action_value rule = self.rules[rule_index] for _ in range(len(rule)): stack.pop() stack.pop() state = stack[-1] stack.append(rule[0]) stack.append(self.goto[state][rule[0]]) output += 'Reduce using rule ' + str(rule_index) + ': ' + str(rule) + '\n' elif action_type == 'acc': output += 'Accept\n' break else: output += 'Error\n' break return output # 定义语义分析器 class SemanticAnalyzer: def __init__(self): self.variables = {} self.temp_count = 0 def generate_temp(self): self.temp_count += 1 return 't' + str(self.temp_count) def analyze(self, parse_tree): if parse_tree.label == 'L': self.analyze(parse_tree.children[0]) elif parse_tree.label == 'E': if len(parse_tree.children) == 1: self.analyze(parse_tree.children[0]) elif parse_tree.children[1].label == 'T': self.analyze(parse_tree.children[0]) self.analyze(parse_tree.children[2]) else: temp = self.generate_temp() self.analyze(parse_tree.children[0]) self.variables[temp] = self.analyze(parse_tree.children[2]) self.variables[parse_tree.children[0].value] = temp elif parse_tree.label == 'T': if len(parse_tree.children) == 1: return self.analyze(parse_tree.children[0]) else: temp = self.generate_temp() self.variables[temp] = self.analyze(parse_tree.children[0]) self.variables[temp] -= self.analyze(parse_tree.children[2]) return temp elif parse_tree.label == 'F': if parse_tree.children[0].label == '(': return self.analyze(parse_tree.children[1]) else: return self.variables[parse_tree.children[0].value] # 定义输入字符串 input_str = 'id + id * id - id / id' # 将输入字符串转换为token序列 tokens = input_str.split() input_tokens = [(token, None) for token in tokens] + [('$', None)] # 创建LR分析器和语义分析器 lr_parser = LRParser(rules, action, goto) semantic_analyzer = SemanticAnalyzer() # 执行语法分析和语义分析 parse_tree = lr_parser.parse(input_tokens) output = semantic_analyzer.analyze(parse_tree) # 输出分析结果 print('Parse Tree:\n' + parse_tree) print('Variables:\n' + str(semantic_analyzer.variables)) ``` 解释: 这段程序首先定义了文法规则、Action表和Goto表。其中,文法规则使用字典类型表示,Action表和Goto表使用嵌套字典类型表示。接下来,定义了一个名为LRParser的类,该类包含三个属性:rules、action和goto。类方法parse实现了LR分析算法。它使用一个栈来模拟分析过程,同时按照Action表和Goto表中的规则进行分析。如果分析成功,则返回一个表示语法分析树的字符串。如果分析失败,则返回一个错误信息。 接下来,定义了一个名为SemanticAnalyzer的类,该类包含两个属性:variables和temp_count。variables是一个字典,用于存储变量和它们的值。temp_count是一个计数器,用于生成临时变量。类方法generate_temp用于生成一个新的临时变量。类方法analyze执行语义分析。它根据语法树的节点类型执行不同的操作。如果节点类型是L,则递归地执行其子节点。如果节点类型是E,则检查子节点数目,如果只有一个子节点,则递归地执行该子节点;否则,根据子节点类型执行不同的操作。如果子节点类型是T,则递归地执行第1和第3个子节点。如果子节点类型是E,则生成一个新的临时变量,将第1个子节点的值和第3个子节点的值相加,并将结果存储在新的临时变量中。最后,将新的临时变量的名称存储在第1个子节点的值中。如果节点类型是T,则检查子节点数目,如果只有一个子节点,则递归地执行该子节点;否则,生成一个新的临时变量,将第1个子节点的值减去第3个子节点的值,并将结果存储在新的临时变量中。最后,返回新的临时变量的名称。如果节点类型是F,则检查第1个子节点的类型。如果第1个子节点是左括号,则递归地执行第2个子节点;否则,返回存储在variables中与第1个子节点的值相对应的变量的值。 最后,使用输入字符串创建token序列,然后使用LR分析器和语义分析器执行语法分析和语义分析。最终输出分析结果,包括语法分析树和变量的值。
阅读全文

相关推荐

zip
------- 基于 Python 的词法和LR(1)文法分析器 ## 总体说明 * 编程语言:Python 2.7.11 * 编程平台:Ubuntu16.04 * 编程环境:sublime * 完成的内容:实现了 3型文法的词法分析器和2 型文法的LR(1)语法分析器。 * 测试文法:一个类C语言的文法 * 测试程序:一个类C语言的程序。 ## 文件说明 本程序共涉及7个文件, 现将其说明如下: lexical_analyze.py 词法分析程序 syntax_analyze.py 语法分析程序 nfa_and_dfa.py 定义了 nfa 和 dfa 类以及其节点 lex_grammar.txt 词法文法文件 syn_grammar.txt 语法文法文件 source.cc 待分析的类C程序 token_table.data 词法分析输出的token表 ## 词法文法说明 我构造了一个3型文法作为程序读入的词法的文法,为了简化读入操作,我将课本上的 ->(推出符)换成了 ‘:’, ‘:’的左侧是产生式的左部, 右侧是产生式的右部, 并且将空产生式的右部的埃普西隆用 $ 来代替。 我将token的类型大体分成了 identifier、limiter、operator、number、string 等五类, 并每一类设计了表达式和推导过程。 ## 语法文法说明 直到开始写文法我才直到这个课设最难的是文法的构造, 自己YY了很久也没能设计出一个让自己满意且可用的文法, 所以中从 http://www.nongnu.org/hcb/ 这里参考了一下,最后写出来了一个2型文法。 跟词法的文法, 这里用 ‘:’ 来代替课本上的 –> 并且用 ‘$’ 来代替埃普西隆空产生式右部。 ## 词法分析器说明 词法分析器接受一个3型文法, 接受3型文法后会分析其终结符和非终结符, 分析方法是: 对于非终结符, 很明显, 所有在产生式左部的符号都是非终结符, 那么终结符就是所有的符号集合与非终结符集合的差集.分析完终结符和非终结符之后根据课本算法构造 NFA, 然后根据课本的算法构造 DFA,至此文法的处理工作结束。 接下来分析待分析的程序, 对于读入的程序, 将每个字符一次输入到 DFA 里面,当 DFA 不能接受某个字符的时候判断当前状态是否是一个终结状态, 如果是则token分析成功, 否则词法分析失败。 ## 语法分析器说明 语法分析器首先读入要分析的2型文法, 然后求出文法的终结符和非终结符, 求法与上面相同, 之后要求出每个文法符号的 first集,终结符的first 集是他本身,非终结符的 first 集的求解过程是一个记忆化搜索的过程。 然后为文法添加拓展的 S’->S,# 在此基础上进行拓展形成项目集 I0, 然后对项目集I0 进行推广, 同时构建 LR(1) 分析表。 有了 LR(1) 分析表后接下来的过程我们只需要一个一个的将词法分析生成的token读入到程序里面放在分析表中寻找移进或者归约操作即可, 如果最后的状态是 acc 则文法符合要求, 如果最后无法得到 acc,或者在分析表中找不到相应的操作, 则语法错误。 -------- 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------

最新推荐

recommend-type

STM32之光敏电阻模拟路灯自动开关灯代码固件

这是一个STM32模拟天黑天亮自动开关灯代码固件,使用了0.96寸OLED屏幕显示文字,例程亲测可用,视频示例可B站搜索 285902929
recommend-type

PHP在线工具箱源码站长引流+在线工具箱源码+多款有趣的在线工具+一键安装

PHP在线工具箱源码站长引流+在线工具箱源码+多款有趣的在线工具+一键安装 测试环境:nginx+php5.6+mysql5.5 安装说明:上传后访问安装即可
recommend-type

PageNow大数据可视化开发平台-开源版,基于SprigBoot+Vue构建的数据可视化开发平台,灵活的拖拽式布局、支持多种数据源、丰富的通用组件.zip

PageNow大数据可视化开发平台_开源版,基于SprigBoot+Vue构建的数据可视化开发平台,灵活的拖拽式布局、支持多种数据源、丰富的通用组件PageNow-基础开源版(基于SpringBoot+Vue构建的数据可视化开发平台)介绍基于SprigBoot+Vue构建的数据可视化开发平台,灵活的拖拽式布局、丰富的通用组件,帮助您快速构建与迭代数据大屏页面。基础开源版仅作为交流学习使用,基础开源版将于2021年3月1日开始维护正式更新。如需购买功能更加完善且完善的企业版,请前往官网进行查看并在线体验企业版。官方网站http://pagenow.cn内容结构服务器邮政程序源码web前端主程序源码(基于Vue-cli3.0为基础构建的项目结构)总体架构选择1、 SpringBoot 主架构框架2、 决赛 基于Db的数据库操作3、 德鲁伊 数据库连接池4、 Swagger2 接口测试框架5、 Maven 项目建设管理前端架构型1、 vue mvvm 框架2、 vue-router 路由管理3、 vuex 状态管理4、 axios HTTP
recommend-type

【滤波跟踪】基于matlab松散耦合的四元数扩展卡尔曼滤波器EKF(真实飞行数据)【含Matlab源码 10891期】.zip

Matlab领域上传的视频是由对应的完整代码运行得来的,完整代码皆可运行,亲测可用,适合小白; 1、从视频里可见完整代码的内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作
recommend-type

2000-2021年 全国各地区教育相关数据指标教师学生数量、教育经费等数据

本数据整理全各省直辖市自治区从2000年至2021年教育相关140+指标数据,包含普通高校、中等职业学校、普通高中、初中、小学、特殊教育等教师学生数量相关数据,各项教育经费等数据,普通高等学校、职业学校各专业报名人数。内容包括原始数据、线性插值版本、ARIMA填补。 指标 数据指标包含区划代码,地区,长江经济带,经度,年份,普通高等学校数、本科专科招生数、在校学生数、预计本科专科毕业生数、教职工总数、任教教师数。 中等职业、普通高中、初中、小学学校数量​、招生人数、在校学生数量、毕业人数、教师教职工等人数统计 教育经费、国家财政性教育经费、民办学校办学经费、教育经费社会捐赠经费、教育经费事业收入、教育经费学杂费。 数据指标较多不一一列举
recommend-type

简化填写流程:Annoying Form Completer插件

资源摘要信息:"Annoying Form Completer-crx插件" Annoying Form Completer是一个针对Google Chrome浏览器的扩展程序,其主要功能是帮助用户自动填充表单中的强制性字段。对于经常需要在线填写各种表单的用户来说,这是一个非常实用的工具,因为它可以节省大量时间,并减少因重复输入相同信息而产生的烦恼。 该扩展程序的描述中提到了用户在填写表格时遇到的麻烦——必须手动输入那些恼人的强制性字段。这些字段可能包括但不限于用户名、邮箱地址、电话号码等个人信息,以及各种密码、确认密码等重复性字段。Annoying Form Completer的出现,使这一问题得到了缓解。通过该扩展,用户可以在表格填充时减少到“一个压力……或两个”,意味着极大的方便和效率提升。 值得注意的是,描述中也使用了“抽浏览器”的表述,这可能意味着该扩展具备某种数据提取或自动化填充的机制,虽然这个表述不是一个标准的技术术语,它可能暗示该扩展程序能够从用户之前的行为或者保存的信息中提取必要数据并自动填充到表单中。 虽然该扩展程序具有很大的便利性,但用户在使用时仍需谨慎,因为自动填充个人信息涉及到隐私和安全问题。理想情况下,用户应该只在信任的网站上使用这种类型的扩展程序,并确保扩展程序是从可靠的来源获取,以避免潜在的安全风险。 根据【压缩包子文件的文件名称列表】中的信息,该扩展的文件名为“Annoying_Form_Completer.crx”。CRX是Google Chrome扩展的文件格式,它是一种压缩的包格式,包含了扩展的所有必要文件和元数据。用户可以通过在Chrome浏览器中访问chrome://extensions/页面,开启“开发者模式”,然后点击“加载已解压的扩展程序”按钮来安装CRX文件。 在标签部分,我们看到“扩展程序”这一关键词,它明确了该资源的性质——这是一个浏览器扩展。扩展程序通常是通过增加浏览器的功能或提供额外的服务来增强用户体验的小型软件包。这些程序可以极大地简化用户的网上活动,从保存密码、拦截广告到自定义网页界面等。 总结来看,Annoying Form Completer作为一个Google Chrome的扩展程序,提供了一个高效的解决方案,帮助用户自动化处理在线表单的填写过程,从而提高效率并减少填写表单时的麻烦。在享受便捷的同时,用户也应确保使用扩展程序时的安全性和隐私性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

CC-LINK远程IO模块AJ65SBTB1现场应用指南:常见问题快速解决

# 摘要 CC-LINK远程IO模块作为一种工业通信技术,为自动化和控制系统提供了高效的数据交换和设备管理能力。本文首先概述了CC-LINK远程IO模块的基础知识,接着详细介绍了其安装与配置流程,包括硬件的物理连接和系统集成要求,以及软件的参数设置与优化。为应对潜在的故障问题,本文还提供了故障诊断与排除的方法,并探讨了故障解决的实践案例。在高级应用方面,文中讲述了如何进行编程与控制,以及如何实现系统扩展与集成。最后,本文强调了CC-LINK远程IO模块的维护与管理的重要性,并对未来技术发展趋势进行了展望。 # 关键字 CC-LINK远程IO模块;系统集成;故障诊断;性能优化;编程与控制;维护
recommend-type

使用MATLAB写一个在柱坐标系中实现以下功能的代码:1) 生成具有损耗的平面电磁波模型;2) 调整电场分量Ex和Ey的幅度和相位,以仿真三种极化的形成?

在MATLAB中,处理电磁学问题通常需要利用`physconst`、`polar2cartesian`等函数库。以下是一个简化的示例,展示了如何生成一个基本的平面电磁波模型,并调整电场分量的幅度和相位。请注意,实际的损耗模型通常会涉及到复杂的阻抗和吸收系数,这里我们将简化为理想情况。 ```matlab % 初始化必要的物理常数 c = physconst('LightSpeed'); % 光速 omega = 2*pi * 5e9; % 角频率 (例如 GHz) eps0 = physconst('PermittivityOfFreeSpace'); % 真空介电常数 % 定义网格参数
recommend-type

TeraData技术解析与应用

资源摘要信息: "TeraData是一个高性能、高可扩展性的数据仓库和数据库管理系统,它支持大规模的数据存储和复杂的数据分析处理。TeraData的产品线主要面向大型企业级市场,提供多种数据仓库解决方案,包括并行数据仓库和云数据仓库等。由于其强大的分析能力和出色的处理速度,TeraData被广泛应用于银行、电信、制造、零售和其他需要处理大量数据的行业。TeraData系统通常采用MPP(大规模并行处理)架构,这意味着它可以通过并行处理多个计算任务来显著提高性能和吞吐量。" 由于提供的信息中描述部分也是"TeraData",且没有详细的内容,所以无法进一步提供关于该描述的详细知识点。而标签和压缩包子文件的文件名称列表也没有提供更多的信息。 在讨论TeraData时,我们可以深入了解以下几个关键知识点: 1. **MPP架构**:TeraData使用大规模并行处理(MPP)架构,这种架构允许系统通过大量并行运行的处理器来分散任务,从而实现高速数据处理。在MPP系统中,数据通常分布在多个节点上,每个节点负责一部分数据的处理工作,这样能够有效减少数据传输的时间,提高整体的处理效率。 2. **并行数据仓库**:TeraData提供并行数据仓库解决方案,这是针对大数据环境优化设计的数据库架构。它允许同时对数据进行读取和写入操作,同时能够支持对大量数据进行高效查询和复杂分析。 3. **数据仓库与BI**:TeraData系统经常与商业智能(BI)工具结合使用。数据仓库可以收集和整理来自不同业务系统的数据,BI工具则能够帮助用户进行数据分析和决策支持。TeraData的数据仓库解决方案提供了一整套的数据分析工具,包括但不限于ETL(抽取、转换、加载)工具、数据挖掘工具和OLAP(在线分析处理)功能。 4. **云数据仓库**:除了传统的本地部署解决方案,TeraData也在云端提供了数据仓库服务。云数据仓库通常更灵活、更具可伸缩性,可根据用户的需求动态调整资源分配,同时降低了企业的运维成本。 5. **高可用性和扩展性**:TeraData系统设计之初就考虑了高可用性和可扩展性。系统可以通过增加更多的处理节点来线性提升性能,同时提供了多种数据保护措施以保证数据的安全和系统的稳定运行。 6. **优化与调优**:对于数据仓库而言,性能优化是一个重要的环节。TeraData提供了一系列的优化工具和方法,比如SQL调优、索引策略和执行计划分析等,来帮助用户优化查询性能和提高数据访问效率。 7. **行业应用案例**:在金融、电信、制造等行业中,TeraData可以处理海量的交易数据、客户信息和业务数据,它在欺诈检测、客户关系管理、供应链优化等关键业务领域发挥重要作用。 8. **集成与兼容性**:TeraData系统支持与多种不同的业务应用和工具进行集成。它也遵循行业标准,能够与其他数据源、分析工具和应用程序无缝集成,为用户提供一致的用户体验。 以上便是关于TeraData的知识点介绍。由于文件描述内容重复且过于简略,未能提供更深层次的介绍,如果需要进一步详细的知识,建议参考TeraData官方文档或相关技术文章以获取更多的专业信息。