maxscript 获取正在运行的其他软件的路径

时间: 2024-02-04 19:01:05 浏览: 40
在Maxscript中,我们可以使用`dotNet`来获取正在运行的其他软件的路径。具体步骤如下: 首先,我们需要使用`dotnetclass`函数来加载System.Diagnostics命名空间下的`Process`类。代码如下: ``` dotnet.loadAssembly "System.Diagnostics" processClass = dotNetClass "System.Diagnostics.Process" ``` 然后,我们可以使用`processClass`的`GetProcesses`方法获取正在运行的所有进程。代码如下: ``` allProcesses = processClass.GetProcesses() ``` 接下来,我们可以遍历`allProcesses`列表,并使用`Process`的`MainModule`属性来获取每个进程的主模块路径。代码如下: ``` for i = 1 to allProcesses.count do ( mainModulePath = allProcesses[i].MainModule.FileName print mainModulePath ) ``` 最后,我们可以根据需求进一步处理输出的路径信息,例如筛选特定软件的路径等。 以上是使用Maxscript获取正在运行的其他软件的路径的方法。值得注意的是,某些进程由于系统权限限制,可能无法获取其路径或者可能产生异常。因此,建议在使用时加上异常处理机制来处理这些特殊情况。
相关问题

nodejs cmd运行参数

Node.js 的命令行运行参数可以在运行脚本时通过命令行传递。下面是一些常见的 Node.js 命令行参数: 1. 脚本文件:使用 `node` 命令后面跟随要运行的脚本文件的路径,例如 `node script.js`。 2. 选项参数:使用 `--` 或 `-` 开头的参数,用于配置 Node.js 运行环境。例如: - `--inspect`:启用调试模式,可以通过 Chrome DevTools 进行调试。 - `--max-old-space-size=<size>`:设置最大堆内存大小,例如 `--max-old-space-size=4096` 表示设置最大堆内存为 4GB。 - `-r` 或 `--require`:在脚本运行之前引入指定的模块,例如 `-r esm` 表示在运行脚本前引入 esm 模块。 3. 命令行参数:在运行脚本时可以传递自定义参数,可以在脚本中通过 `process.argv` 获取这些参数。例如: - `node script.js arg1 arg2`:在脚本中可以通过 `process.argv[2]` 获取 `arg1`,通过 `process.argv[3]` 获取 `arg2`。 这些是一些常见的 Node.js 命令行运行参数,你可以根据需要自定义使用。

提供一个c++端用libtorch和Torch TensorRT加速推理torchscript模型的案例并注释

以下是一个使用libtorch和Torch TensorRT加速推理torchscript模型的C++案例: ```c++ #include <torch/script.h> #include <iostream> #include <memory> #include <chrono> #include <NvInfer.h> #include <NvInferRuntimeCommon.h> #include <NvInferPlugin.h> #include <NvInferPluginUtils.h> using namespace std::chrono; int main(int argc, const char* argv[]) { if (argc != 3) { std::cerr << "Usage: " << argv[0] << " <model_path> <input_shape>" << std::endl; return 1; } const std::string model_path = argv[1]; const std::string input_shape_str = argv[2]; const std::vector<int64_t> input_shape = parse_input_shape(input_shape_str); // Load the model std::shared_ptr<torch::jit::script::Module> module = torch::jit::load(model_path); // Create the input tensor torch::Tensor input = torch::randn(input_shape); // Warm up the GPU module->forward({input}).toTensor(); // Convert the model to TensorRT const int max_batch_size = 1; const int max_workspace_size = 1 << 30; // 1 GB const int max_dla_batch_size = 0; const int max_dla_core = -1; const bool fp16_mode = true; const bool int8_mode = false; const int int8_calibration_batch_size = 0; const std::string engine_path = "engine.trt"; nvinfer1::ICudaEngine* engine = convert_to_tensorrt(module, input_shape, max_batch_size, max_workspace_size, max_dla_batch_size, max_dla_core, fp16_mode, int8_mode, int8_calibration_batch_size, engine_path); // Create execution context nvinfer1::IExecutionContext* context = engine->createExecutionContext(); // Allocate the output tensor std::vector<int64_t> output_shape = get_output_shape(engine, input_shape); torch::Tensor output = torch::empty(output_shape); // Run inference using TensorRT auto start = high_resolution_clock::now(); std::vector<void*> buffers(2); const int input_index = engine->getBindingIndex("input"); const int output_index = engine->getBindingIndex("output"); buffers[input_index] = input.data_ptr(); buffers[output_index] = output.data_ptr(); context->executeV2(buffers.data()); auto stop = high_resolution_clock::now(); auto duration = duration_cast<microseconds>(stop - start); std::cout << "Inference time: " << duration.count() << " microseconds" << std::endl; // Verify the output torch::Tensor expected_output = module->forward({input}).toTensor(); assert(torch::allclose(output, expected_output, 1e-3, 1e-3)); // Clean up context->destroy(); engine->destroy(); return 0; } ``` 代码中的 `parse_input_shape`、`convert_to_tensorrt`、`get_output_shape` 是一些辅助函数,用于解析输入形状,将模型转换为TensorRT引擎和获取输出形状。这些函数的实现可以参考官方文档。 使用时,需要在命令行中指定模型路径和输入形状,例如:`./my_app my_model.pt 1,3,224,224`。程序会自动将模型转换为TensorRT引擎,并运行推理。最后,程序会验证TensorRT输出是否与PyTorch输出一致,以确保结果正确。

相关推荐

(mypytorch) C:\Users\as729>yolo detect train data=C:/Users/as729/ultralytics/ultralytics/datasets/new.yaml model=C:/ultralytics/ultralytics/weights/yolov8s.pt epochs=150 imgsz=640 batch=16 patience=150 project=C:/ultralytics/runs/visdrone name=yolov8s Ultralytics YOLOv8.0.139 Python-3.9.17 torch-2.0.1 CUDA:0 (NVIDIA GeForce RTX 3050 Laptop GPU, 4096MiB) engine\trainer: task=detect, mode=train, model=C:/ultralytics/ultralytics/weights/yolov8s.pt, data=C:/Users/as729/ultralytics/ultralytics/datasets/new.yaml, epochs=150, patience=150, batch=16, imgsz=640, save=True, save_period=-1, cache=False, device=None, workers=8, project=C:/ultralytics/runs/visdrone, name=yolov8s, exist_ok=False, pretrained=True, optimizer=auto, verbose=True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split=val, save_json=False, save_hybrid=False, conf=None, iou=0.7, max_det=300, half=False, dnn=False, plots=True, source=None, show=False, save_txt=False, save_conf=False, save_crop=False, show_labels=True, show_conf=True, vid_stride=1, line_width=None, visualize=False, augment=False, agnostic_nms=False, classes=None, retina_masks=False, boxes=True, format=torchscript, keras=False, optimize=False, int8=False, dynamic=False, simplify=False, opset=None, workspace=4, nms=False, lr0=0.01, lrf=0.01, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=7.5, cls=0.5, dfl=1.5, pose=12.0, kobj=1.0, label_smoothing=0.0, nbs=64, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0, cfg=None, tracker=botsort.yaml, save_dir=C:\ultralytics\runs\visdrone\yolov8s5 Traceback (most recent call last): File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\trainer.py", line 123, in __init__ self.data = check_det_dataset(self.args.data) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\data\utils.py", line 196, in check_det_dataset data = check_file(dataset) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\utils\checks.py", line 330, in check_file raise FileNotFoundError(f"'{file}' does not exist") FileNotFoundError: 'C:/Users/as729/ultralytics/ultralytics/datasets/new.yaml' does not exist The above exception was the direct cause of the following exception: Traceback (most recent call last): File "C:\Users\as729\.conda\envs\mypytorch\lib\runpy.py", line 197, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\as729\.conda\envs\mypytorch\lib\runpy.py", line 87, in _run_code exec(code, run_globals) File "C:\Users\as729\.conda\envs\mypytorch\Scripts\yolo.exe\__main__.py", line 7, in <module> File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\cfg\__init__.py", line 410, in entrypoint getattr(model, mode)(**overrides) # default args from model File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\model.py", line 367, in train self.trainer = TASK_MAP[self.task][1](overrides=overrides, _callbacks=self.callbacks) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\trainer.py", line 127, in __init__ raise RuntimeError(emojis(f"Dataset '{clean_url(self.args.data)}' error ❌ {e}")) from e RuntimeError: Dataset 'C:\Users\as729\ultralytics\ultralytics\datasets\new.yaml' error 'C:/Users/as729/ultralytics/ultralytics/datasets/new.yaml' does not exist

最新推荐

recommend-type

300ssm_jsp_mysql 记账管理系统.zip(可运行源码+sql文件+文档)

管理员需要配置的功能模块如下: (1)系统用户管理,管理员能够对系统中存在的用户的信息进行合理的维护操作,可以查看用户的信息以及在线进行密码的更换; (2)用户管理,管理员可以对该系统中用户进行管理,这个模块主要针对企业中的员工用户,管理员能够对这类的用户信息进行线上化的维护管理; (3)财务管理,该模块是整个系统的核心模块内容,在该模块的设计上,是通过对用户输入的收入、支出情况进行完整的内容查看,并且能够在线新增财务信息。 (4)财务统计,在财务统计的功能模块中,管理员可以看到当前所有用户累计的财务支出以及收入的情况,可以实现有效的数据统计工作。 本次的系统业务设计上是通过B/S结构来进行相应的管理系统搭建的。通过MVC三层框架结构来对整个系统中的不同功能模块实现分层的开发。在整个开发的过程中通过对不同的角色用户进行不同的功能权限的分配来对整个系统进行完整的设计。通过对不同的记账管理系统进行研究分析,了解到当下的记账管理系统普遍在收入、支出的统计上作为系统的核心要素来进行设计,在收支的系统自动统计上也需要进行有效的合理的内容设计。并且不同人员输入的信
recommend-type

一个简单的计数器,带有 2 个多路复用 SSD 和 2 个推送 btns 以递增或复位,使用分层架构在基于 stm32 ARM

一个简单的计数器,带有 2 个多路复用 SSD 和 2 个推送 btns 以递增或复位,使用分层架构在基于 stm32 ARM 的微控制器上运行
recommend-type

yolov8算法火焰和烟雾识别训练权重+数据集

yolov8算法火焰和烟雾识别训练权重, 包含15000多火焰和烟雾识别数据集(有网盘链接),数据集目录已经配置好,划分好 train,val, test,并附有data.yaml文件,yolov5、yolov7、yolov8,yolov9等算法可以直接进行训练模型,txt格式标签, 数据集和检测结果参考:https://blog.csdn.net/zhiqingAI/article/details/124230743 数据集配置目录结构data.yaml: nc: 2 names: - fire - smoke
recommend-type

docker python3:10版本 镜像

docker python3:10 版本 镜像
recommend-type

代码,源代码,购物网站,电子商务,电子商务网站,.net代码,源代

代码,源代码,购物网站,电子商务,电子商务网站,.net代码,源代码,网站源代码,购物网站源代码,asp.net,asp.net的购物网站,sql2000数据库,vs2010平台,网站制作,网站制作源代码,c#,C#网站,C#购物网站,C#电子商务网站,全套的购物网,电子商务源代码,asp.net购物网站源码,简单的源代码,基本实现购物,实现购物的源代码,适用。1
recommend-type

利用迪杰斯特拉算法的全国交通咨询系统设计与实现

全国交通咨询模拟系统是一个基于互联网的应用程序,旨在提供实时的交通咨询服务,帮助用户找到花费最少时间和金钱的交通路线。系统主要功能包括需求分析、个人工作管理、概要设计以及源程序实现。 首先,在需求分析阶段,系统明确了解用户的需求,可能是针对长途旅行、通勤或日常出行,用户可能关心的是时间效率和成本效益。这个阶段对系统的功能、性能指标以及用户界面有明确的定义。 概要设计部分详细地阐述了系统的流程。主程序流程图展示了程序的基本结构,从开始到结束的整体运行流程,包括用户输入起始和终止城市名称,系统查找路径并显示结果等步骤。创建图算法流程图则关注于核心算法——迪杰斯特拉算法的应用,该算法用于计算从一个节点到所有其他节点的最短路径,对于求解交通咨询问题至关重要。 具体到源程序,设计者实现了输入城市名称的功能,通过 LocateVex 函数查找图中的城市节点,如果城市不存在,则给出提示。咨询钱最少模块图是针对用户查询花费最少的交通方式,通过 LeastMoneyPath 和 print_Money 函数来计算并输出路径及其费用。这些函数的设计体现了算法的核心逻辑,如初始化每条路径的距离为最大值,然后通过循环更新路径直到找到最短路径。 在设计和调试分析阶段,开发者对源代码进行了严谨的测试,确保算法的正确性和性能。程序的执行过程中,会进行错误处理和异常检测,以保证用户获得准确的信息。 程序设计体会部分,可能包含了作者在开发过程中的心得,比如对迪杰斯特拉算法的理解,如何优化代码以提高运行效率,以及如何平衡用户体验与性能的关系。此外,可能还讨论了在实际应用中遇到的问题以及解决策略。 全国交通咨询模拟系统是一个结合了数据结构(如图和路径)以及优化算法(迪杰斯特拉)的实用工具,旨在通过互联网为用户提供便捷、高效的交通咨询服务。它的设计不仅体现了技术实现,也充分考虑了用户需求和实际应用场景中的复杂性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【实战演练】基于TensorFlow的卷积神经网络图像识别项目

![【实战演练】基于TensorFlow的卷积神经网络图像识别项目](https://img-blog.csdnimg.cn/20200419235252200.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM3MTQ4OTQw,size_16,color_FFFFFF,t_70) # 1. TensorFlow简介** TensorFlow是一个开源的机器学习库,用于构建和训练机器学习模型。它由谷歌开发,广泛应用于自然语言
recommend-type

CD40110工作原理

CD40110是一种双四线双向译码器,它的工作原理基于逻辑编码和译码技术。它将输入的二进制代码(一般为4位)转换成对应的输出信号,可以控制多达16个输出线中的任意一条。以下是CD40110的主要工作步骤: 1. **输入与编码**: CD40110的输入端有A3-A0四个引脚,每个引脚对应一个二进制位。当你给这些引脚提供不同的逻辑电平(高或低),就形成一个四位的输入编码。 2. **内部逻辑处理**: 内部有一个编码逻辑电路,根据输入的四位二进制代码决定哪个输出线应该导通(高电平)或保持低电平(断开)。 3. **输出**: 输出端Y7-Y0有16个,它们分别与输入的编码相对应。当特定的
recommend-type

全国交通咨询系统C++实现源码解析

"全国交通咨询系统C++代码.pdf是一个C++编程实现的交通咨询系统,主要功能是查询全国范围内的交通线路信息。该系统由JUNE于2011年6月11日编写,使用了C++标准库,包括iostream、stdio.h、windows.h和string.h等头文件。代码中定义了多个数据结构,如CityType、TrafficNode和VNode,用于存储城市、交通班次和线路信息。系统中包含城市节点、交通节点和路径节点的定义,以及相关的数据成员,如城市名称、班次、起止时间和票价。" 在这份C++代码中,核心的知识点包括: 1. **数据结构设计**: - 定义了`CityType`为short int类型,用于表示城市节点。 - `TrafficNodeDat`结构体用于存储交通班次信息,包括班次名称(`name`)、起止时间(原本注释掉了`StartTime`和`StopTime`)、运行时间(`Time`)、目的地城市编号(`EndCity`)和票价(`Cost`)。 - `VNodeDat`结构体代表城市节点,包含了城市编号(`city`)、火车班次数(`TrainNum`)、航班班次数(`FlightNum`)以及两个`TrafficNodeDat`数组,分别用于存储火车和航班信息。 - `PNodeDat`结构体则用于表示路径中的一个节点,包含城市编号(`City`)和交通班次号(`TraNo`)。 2. **数组和变量声明**: - `CityName`数组用于存储每个城市的名称,按城市编号进行索引。 - `CityNum`用于记录城市的数量。 - `AdjList`数组存储各个城市的线路信息,下标对应城市编号。 3. **算法与功能**: - 系统可能实现了Dijkstra算法或类似算法来寻找最短路径,因为有`MinTime`和`StartTime`变量,这些通常与路径规划算法有关。 - `curPath`可能用于存储当前路径的信息。 - `SeekCity`函数可能是用来查找特定城市的函数,其参数是一个城市名称。 4. **编程语言特性**: - 使用了`#define`预处理器指令来设置常量,如城市节点的最大数量(`MAX_VERTEX_NUM`)、字符串的最大长度(`MAX_STRING_NUM`)和交通班次的最大数量(`MAX_TRAFFIC_NUM`)。 - `using namespace std`导入标准命名空间,方便使用iostream库中的输入输出操作。 5. **编程实践**: - 代码的日期和作者注释显示了良好的编程习惯,这对于代码维护和团队合作非常重要。 - 结构体的设计使得数据组织有序,方便查询和操作。 这个C++代码实现了全国交通咨询系统的核心功能,涉及城市节点管理、交通班次存储和查询,以及可能的路径规划算法。通过这些数据结构和算法,用户可以查询不同城市间的交通信息,并获取最优路径建议。