Traceback (most recent call last): File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 354, in _check_seekable f.seek(f.tell()) AttributeError: 'list' object has no attribute 'seek' During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/media/orionzj/Data/PycharmProjects/YOLODS/tools/test.py", line 153, in <module> main() File "/media/orionzj/Data/PycharmProjects/YOLODS/tools/test.py", line 86, in main checkpoint = torch.load(checkpoint_file) File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 791, in load with _open_file_like(f, 'rb') as opened_file: File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 276, in _open_file_like return _open_buffer_reader(name_or_buffer) File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 261, in __init__ _check_seekable(buffer) File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 357, in _check_seekable raise_err_msg(["seek", "tell"], e) File "/home/orionzj/.conda/envs/YOLOP/lib/python3.10/site-packages/torch/serialization.py", line 350, in raise_err_msg raise type(e)(msg) AttributeError: 'list' object has no attribute 'seek'. You can only torch.load from a file that is seekable. Please pre-load the data into a buffer like io.BytesIO and try to load from it instead.

时间: 2023-08-15 10:07:11 浏览: 217
这是一个 Python 的错误提示,看起来你在调用 torch.load() 加载模型参数时,传入的文件不是一个可以 seek 的文件对象,而是一个 list 对象。为了解决这个问题,你可以将数据提前加载到一个可 seek 的 buffer 对象中,例如 io.BytesIO,然后再调用 torch.load() 加载模型参数。你可以参考以下代码: ``` import io import torch # 将数据加载到一个 buffer 对象中 buffer = io.BytesIO() torch.save(data, buffer) # 将 buffer 对象的指针移到开头 buffer.seek(0) # 从 buffer 对象中加载数据 data = torch.load(buffer) ``` 其中,data 是你要加载的模型参数数据。
相关问题

Traceback (most recent call last): File "/home/bingxing2/home/scx6281/segmentanything/SAM-Adapter-PyTorch/train.py", line 271, in <module> main(config, save_path, args=args) File "/home/bingxing2/home/scx6281/segmentanything/SAM-Adapter-PyTorch/train.py", line 206, in main result1, result2, result3, result4, metric1, metric2, metric3, metric4 = eval_psnr(val_loader, model, File "/home/bingxing2/home/scx6281/segmentanything/SAM-Adapter-PyTorch/train.py", line 91, in eval_psnr result1, result2, result3, result4 = metric_fn(pred_list, gt_list) UnboundLocalError: local variable 'metric_fn' referenced before assignment ERROR:torch.distributed.elastic.multiprocessing.api:failed (exitcode: 1) local_rank: 0 (pid: 3699190) of binary: /home/bingxing2/home/scx6281/.conda/envs/seggg/bin/python Traceback (most recent call last): File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/runpy.py", line 197, in _run_module_as_main return _run_code(code, main_globals, None, File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/runpy.py", line 87, in _run_code exec(code, run_globals) File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/launch.py", line 195, in <module> main() File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/launch.py", line 191, in main launch(args) File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/launch.py", line 176, in launch run(args) File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/run.py", line 753, in run elastic_launch( File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/launcher/api.py", line 132, in __call__ return launch_agent(self._config, self._entrypoint, list(args)) File "/home/bingxing2/home/scx6281/.conda/envs/seggg/lib/python3.9/site-packages/torch/distributed/launcher/api.py", line 246, in launch_agent raise ChildFailedError( torch.distributed.elastic.multiprocessing.errors.ChildFailedError:

这个错误信息显示在运行train.py过程中出现了一个UnboundLocalError,即引用了一个未定义的变量。具体来说,是metric_fn这个变量在被引用之前没有被赋值。这可能是由于代码中的某个逻辑错误导致的。建议检查一下代码中metric_fn的定义和赋值部分,看看是否有逻辑错误或者变量名写错等问题。另外,也可以尝试在出错的地方添加一些打印语句,以便更好地定位问题所在。

Exception in thread Thread-1: Traceback (most recent call last): File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/threading.py", line 926, in _bootstrap_inner self.run() File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/threading.py", line 870, in run self._target(*self._args, **self._kwargs) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dataloader/dataloader_iter.py", line 213, in _thread_loop self._thread_done_event) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dataloader/fetcher.py", line 121, in fetch data.append(self.dataset[idx]) File "PMRID_train_dehaze_230215.py", line 76, in __getitem__ haze=Image.open(path) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/PIL/Image.py", line 2912, in open fp = builtins.open(filename, "rb") IsADirectoryError: [Errno 21] Is a directory: '/home/aistudio/hazy/.ipynb_checkpoints'

这段错误信息显示了在一个名为Thread-1的线程中发生了异常,异常的类型是IsADirectoryError,错误信息为"[Errno 21] Is a directory: '/home/aistudio/hazy/.ipynb_checkpoints'"。具体来说,是在一个名为"/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dataloader/fetcher.py"的文件的第121行代码中,调用了一个名为PMRID_train_dehaze_230215.py的文件中的__getitem__方法(即索引操作),并且在其中调用了PIL库中的Image.open方法打开一个文件,但是这个文件的路径指向的实际上是一个文件夹(目录),而不是一个文件,因此引发了异常。
阅读全文

相关推荐

/home/dss/Code/7_20/Condition_DDPM_7_20.py:14: DeprecationWarning: Please use rotate from the scipy.ndimage namespace, the scipy.ndimage.interpolation namespace is deprecated. from scipy.ndimage.interpolation import rotate Traceback (most recent call last): File "/home/dss/Code/7_20/Condition_DDPM_7_20.py", line 509, in <module> ddpm = DDPM(device, beta_1, beta_T, T, drop_prob=0.1) File "/home/dss/Code/7_20/Condition_DDPM_7_20.py", line 309, in __init__ self.model = UNet(T).to(device) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 1145, in to return self._apply(convert) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 797, in _apply module._apply(fn) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 797, in _apply module._apply(fn) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 797, in _apply module._apply(fn) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 820, in _apply param_applied = fn(param) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/nn/modules/module.py", line 1143, in convert return t.to(device, dtype if t.is_floating_point() or t.is_complex() else None, non_blocking) File "/home/dss/.conda/envs/DSS_env/lib/python3.9/site-packages/torch/cuda/__init__.py", line 239, in _lazy_init raise AssertionError("Torch not compiled with CUDA enabled") AssertionError: Torch not compiled with CUDA enabled

Traceback (most recent call last): File "/root/miniconda3/envs/test/bin/yolo", line 8, in <module> sys.exit(entrypoint()) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/cfg/__init__.py", line 394, in entrypoint getattr(model, mode)(**overrides) # default args from model File "/root/miniconda3/envs/test/lib/python3.8/site-packages/torch/autograd/grad_mode.py", line 27, in decorate_context return func(*args, **kwargs) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/engine/model.py", line 252, in predict return self.predictor.predict_cli(source=source) if is_cli else self.predictor(source=source, stream=stream) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/engine/predictor.py", line 189, in predict_cli for _ in gen: # running CLI inference without accumulating any outputs (do not modify) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/torch/autograd/grad_mode.py", line 43, in generator_context response = gen.send(None) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/engine/predictor.py", line 215, in stream_inference self.setup_source(source if source is not None else self.args.source) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/engine/predictor.py", line 197, in setup_source self.dataset = load_inference_source(source=source, imgsz=self.imgsz, vid_stride=self.args.vid_stride) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/data/build.py", line 158, in load_inference_source dataset = LoadStreams(source, imgsz=imgsz, vid_stride=vid_stride) File "/root/miniconda3/envs/test/lib/python3.8/site-packages/ultralytics/yolo/data/dataloaders/stream_loaders.py", line 57, in __init__ raise ConnectionError(f'{st}Failed to open {s}') ConnectionError: 1/1: 0... Failed to open 0 Sentry is attempting to send 2 pending events Waiting up to 2 seconds Press Ctrl-C to quit

TypeError: Caught TypeError in DataLoader worker process 0. Original Traceback (most recent call last): File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torch/utils/data/_utils/worker.py", line 287, in _worker_loop data = fetcher.fetch(index) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torch/utils/data/_utils/fetch.py", line 49, in fetch data = [self.dataset[idx] for idx in possibly_batched_index] File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torch/utils/data/_utils/fetch.py", line 49, in data = [self.dataset[idx] for idx in possibly_batched_index] File "/root/ConvNeXt/my_dataset.py", line 40, in __getitem__ img = self.transform(a) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torchvision/transforms/transforms.py", line 95, in __call__ img = t(img) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1110, in _call_impl return forward_call(*input, **kwargs) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torchvision/transforms/transforms.py", line 952, in forward i, j, h, w = self.get_params(img, self.scale, self.ratio) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torchvision/transforms/transforms.py", line 913, in get_params width, height = F.get_image_size(img) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torchvision/transforms/functional.py", line 76, in get_image_size return F_pil.get_image_size(img) File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/torchvision/transforms/functional_pil.py", line 27, in get_image_size raise TypeError(f"Unexpected type {type(img)}") TypeError: Unexpected type <class 'numpy.ndarray'>

Traceback (most recent call last): File "/home/a/pycharmproject/clothes_try_on_copy/11/PF-AFN-main/PF-AFN_train/train_PBAFN_stage1.py", line 134, in <module> loss_vgg = criterionVGG(x_all[num], cur_person_clothes.cuda()) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/module.py", line 889, in _call_impl result = self.forward(*input, **kwargs) File "/home/a/pycharmproject/clothes_try_on_copy/11/PF-AFN-main/PF-AFN_train/models/networks.py", line 164, in forward x_vgg, y_vgg = self.vgg(x), self.vgg(y) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/module.py", line 889, in _call_impl result = self.forward(*input, **kwargs) File "/home/a/pycharmproject/clothes_try_on_copy/11/PF-AFN-main/PF-AFN_train/models/networks.py", line 150, in forward h_relu5 = self.slice5(h_relu4) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/module.py", line 889, in _call_impl result = self.forward(*input, **kwargs) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/container.py", line 119, in forward input = module(input) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/module.py", line 889, in _call_impl result = self.forward(*input, **kwargs) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/modules/pooling.py", line 162, in forward return F.max_pool2d(input, self.kernel_size, self.stride, File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/_jit_internal.py", line 365, in fn return if_false(*args, **kwargs) File "/home/a/.conda/envs/clothes_try_on_copy1/lib/python3.8/site-packages/torch/nn/functional.py", line 659, in _max_pool2d return torch.max_pool2d(input, kernel_size, stride, padding, dilation, ceil_mode) RuntimeError: Given input size: (512x2x1). Calculated output size: (512x1x0). Output size is too small 进程已结束,退出代码1

最新推荐

recommend-type

ARCore(Android的增强现实):ARCore性能优化与调试技巧.docx

ARCore(Android的增强现实):ARCore性能优化与调试技巧
recommend-type

停止维护 基于 ReactNative、Redux 的漫画.zip

停止维护 基于 ReactNative、Redux 的漫画
recommend-type

IEEE 14总线系统Simulink模型开发指南与案例研究

资源摘要信息:"IEEE 14 总线系统 Simulink 模型是基于 IEEE 指南而开发的,可以用于多种电力系统分析研究,比如短路分析、潮流研究以及互连电网问题等。模型具体使用了 MATLAB 这一数学计算与仿真软件进行开发,模型文件为 Fourteen_bus.mdl.zip 和 Fourteen_bus.zip,其中 .mdl 文件是 MATLAB 的仿真模型文件,而 .zip 文件则是为了便于传输和分发而进行的压缩文件格式。" IEEE 14总线系统是电力工程领域中用于仿真实验和研究的基础测试系统,它是根据IEEE(电气和电子工程师协会)的指南设计的,目的是为了提供一个标准化的测试平台,以便研究人员和工程师可以比较不同的电力系统分析方法和优化技术。IEEE 14总线系统通常包括14个节点(总线),这些节点通过一系列的传输线路和变压器相互连接,以此来模拟实际电网中各个电网元素之间的电气关系。 Simulink是MATLAB的一个附加产品,它提供了一个可视化的环境用于模拟、多域仿真和基于模型的设计。Simulink可以用来模拟各种动态系统,包括线性、非线性、连续时间、离散时间以及混合信号系统,这使得它非常适合电力系统建模和仿真。通过使用Simulink,工程师可以构建复杂的仿真模型,其中就包括了IEEE 14总线系统。 在电力系统分析中,短路分析用于确定在特定故障条件下电力系统的响应。了解短路电流的大小和分布对于保护设备的选择和设置至关重要。潮流研究则关注于电力系统的稳态操作,通过潮流计算可以了解在正常运行条件下各个节点的电压幅值、相位和系统中功率流的分布情况。 在进行互连电网问题的研究时,IEEE 14总线系统也可以作为一个测试案例,研究人员可以通过它来分析电网中的稳定性、可靠性以及安全性问题。此外,它也可以用于研究分布式发电、负载管理和系统规划等问题。 将IEEE 14总线系统的模型文件打包为.zip格式,是一种常见的做法,以减小文件大小,便于存储和传输。在解压.zip文件之后,用户就可以获得包含所有必要组件的完整模型文件,进而可以在MATLAB的环境中加载和运行该模型,进行上述提到的多种电力系统分析。 总的来说,IEEE 14总线系统 Simulink模型提供了一个有力的工具,使得电力系统的工程师和研究人员可以有效地进行各种电力系统分析与研究,并且Simulink模型文件的可复用性和可视化界面大大提高了工作的效率和准确性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【数据安全黄金法则】:R语言中party包的数据处理与隐私保护

![【数据安全黄金法则】:R语言中party包的数据处理与隐私保护](https://media.geeksforgeeks.org/wp-content/uploads/20220603131009/Group42.jpg) # 1. 数据安全黄金法则与R语言概述 在当今数字化时代,数据安全已成为企业、政府机构以及个人用户最为关注的问题之一。数据安全黄金法则,即最小权限原则、加密保护和定期评估,是构建数据保护体系的基石。通过这一章节,我们将介绍R语言——一个在统计分析和数据科学领域广泛应用的编程语言,以及它在实现数据安全策略中所能发挥的独特作用。 ## 1.1 R语言简介 R语言是一种
recommend-type

Takagi-Sugeno模糊控制方法的原理是什么?如何设计一个基于此方法的零阶或一阶模糊控制系统?

Takagi-Sugeno模糊控制方法是一种特殊的模糊推理系统,它通过一组基于规则的模糊模型来逼近系统的动态行为。与传统的模糊控制系统相比,该方法的核心在于将去模糊化过程集成到模糊推理中,能够直接提供系统的精确输出,特别适合于复杂系统的建模和控制。 参考资源链接:[Takagi-Sugeno模糊控制原理与应用详解](https://wenku.csdn.net/doc/2o97444da0?spm=1055.2569.3001.10343) 零阶Takagi-Sugeno系统通常包含基于规则的决策,它不包含系统的动态信息,适用于那些系统行为可以通过一组静态的、非线性映射来描述的场合。而一阶
recommend-type

STLinkV2.J16.S4固件更新与应用指南

资源摘要信息:"STLinkV2.J16.S4固件.zip包含了用于STLinkV2系列调试器的JTAG/SWD接口固件,具体版本为J16.S4。固件文件的格式为二进制文件(.bin),适用于STMicroelectronics(意法半导体)的特定型号的调试器,用于固件升级或更新。" STLinkV2.J16.S4固件是指针对STLinkV2系列调试器的固件版本J16.S4。STLinkV2是一种常用于编程和调试STM32和STM8微控制器的调试器,由意法半导体(STMicroelectronics)生产。固件是指嵌入在设备硬件中的软件,负责执行设备的低级控制和管理任务。 固件版本J16.S4中的"J16"可能表示该固件的修订版本号,"S4"可能表示次级版本或是特定于某个系列的固件。固件版本号可以用来区分不同时间点发布的更新和功能改进,开发者和用户可以根据需要选择合适的版本进行更新。 通常情况下,固件升级可以带来以下好处: 1. 增加对新芯片的支持:随着新芯片的推出,固件升级可以使得调试器能够支持更多新型号的微控制器。 2. 提升性能:修复已知的性能问题,提高设备运行的稳定性和效率。 3. 增加新功能:可能包括对调试协议的增强,或是新工具的支持。 4. 修正错误:对已知错误进行修正,提升调试器的兼容性和可靠性。 使用STLinkV2.J16.S4固件之前,用户需要确保固件与当前的硬件型号兼容。更新固件的步骤大致如下: 1. 下载固件文件STLinkV2.J16.S4.bin。 2. 打开STLink的软件更新工具(可能是ST-Link Utility),该工具由STMicroelectronics提供,用于管理固件更新过程。 3. 通过软件将下载的固件文件导入到调试器中。 4. 按照提示完成固件更新过程。 在进行固件更新之前,强烈建议用户仔细阅读相关的更新指南和操作手册,以避免因操作不当导致调试器损坏。如果用户不确定如何操作,应该联系设备供应商或专业技术人员进行咨询。 固件更新完成后,用户应该检查调试器是否能够正常工作,并通过简单的测试项目验证固件的功能是否正常。如果存在任何问题,应立即停止使用并联系技术支持。 固件文件通常位于STMicroelectronics官方网站或专门的软件支持平台上,用户可以在这里下载最新的固件文件,以及获得技术支持和更新日志。STMicroelectronics网站上还会提供固件更新工具,它是更新固件的必备工具。 由于固件涉及到硬件设备的底层操作,错误的固件升级可能会导致设备变砖(无法使用)。因此,在进行固件更新之前,用户应确保了解固件更新的风险,备份好重要数据,并在必要时寻求专业帮助。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【R语言高级用户指南】:10个理由让你深入挖掘party包的潜力

![R语言数据包使用详细教程party](https://img-blog.csdnimg.cn/5e7ce3f9b32744a09bcb208e42657e86.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5aSa5Yqg54K56L6j5Lmf5rKh5YWz57O7,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) # 1. R语言和party包简介 R语言是一种广泛用于统计分析和数据可视化领域的编程语言。作为一种开源工具,它拥有庞
recommend-type

在设计基于80C51单片机和PCF8563的电子时钟时,如何编写中断服务程序以确保时间的精确更新和防止定时器溢出?

在设计电子时钟系统时,编写中断服务程序是确保时间精确更新和防止定时器溢出的关键步骤。首先,我们需要了解PCF8563的工作原理,它是一个实时时钟(RTC)芯片,能够通过I²C接口与80C51单片机通信。PCF8563具有内部振荡器和可编程计数器,可以通过编程设置定时器中断。 参考资源链接:[基于80C51与PCF8563的单片机电子时钟设计详解](https://wenku.csdn.net/doc/18at3ddgzi?spm=1055.2569.3001.10343) 要编写中断服务程序,你需要按照以下步骤操作: 1. **初始化定时器**:首先,需要初始化80C51的定时器模块,包