argparse.Ar
时间: 2023-10-31 15:55:06 浏览: 34
argparse.ArgumentParser() 是一个函数,用于创建一个ArgumentParser对象,该对象用于解析命令行参数。 通过使用argparse.ArgumentParser() 函数,可以创建一个ArgumentParser对象,并指定描述和用法的信息。例如:parser = argparse.ArgumentParser(description='Process some integers.')
请注意,以上引用内容中提供了两种创建 ArgumentParser 对象的方法,你可以根据具体需求选择其中一种方法来创建对象。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
相关问题
ubuntu. ar命令
ubuntu中的ar命令是一种用于创建和操作静态库的工具。静态库是一种包含多个目标文件的集合,通过将这些目标文件打包成一个文件,可以方便地在编译过程中使用。
ar命令主要有三种常用的操作模式:cr、t和x。
使用cr模式可以创建一个静态库文件,语法为:ar cr libname.a file1.o file2.o ...。其中,libname.a代表要创建的静态库文件名,file1.o、file2.o等是要添加到库中的目标文件。
使用t模式可以列出静态库中包含的目标文件,语法为:ar t libname.a。这样可以查看库中包含的目标文件的名称。
使用x模式可以从静态库中提取目标文件,语法为:ar x libname.a。这样可以将库中的目标文件解压出来,方便查看和使用。
除了这些基本的操作模式之外,ar命令还支持其他一些选项和功能。例如,可以使用参数d来删除库中的某个目标文件,可以使用参数p来显示库中某个目标文件的内容。
总的来说,ubuntu中的ar命令提供了一种便捷的方式来创建和管理静态库文件,方便了程序的开发和编译过程。
解析代码from imutils import contours import numpy as np import argparse #参数设置包 import imutils #图像处理包 import cv2 import myutils#自定义包 #设置参数 ap=argparse.ArgumentParser()#创建一个解析对
象
ap.add_argument("-i", "--image", required=True, help="path to input image")#添加参数-i/--image,表示输入图片的路径
ap.add_argument("-r", "--reference", required=True, help="path to reference OCR-A image")#添加参数-r/--reference,表示OCR-A字体的标准图片路径
args=vars(ap.parse_args())#将解析的参数保存到 args 变量中
#定义一个函数,用于将图片转换为灰度图像并进行二值化处理
def pre_process(image, inv=False):
gray=cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)#将图片转换为灰度图像
if inv:
gray=cv2.bitwise_not(gray)#取反,将黑色变为白色,将白色变为黑色
gray=cv2.GaussianBlur(gray, (5,5), 0)#高斯模糊
thresh=cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[1]#OTSU二值化
return thresh
#读取输入图片和OCR-A标准图片
image=cv2.imread(args["image"])
ref=cv2.imread(args["reference"])
#将输入图片和标准图片转换为灰度图像并进行二值化处理
gray=pre_process(image, inv=True)
ref=pre_process(ref)
#计算输入图片和标准图片的轮廓
refCnts=cv2.findContours(ref.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
refCnts=imutils.grab_contours(refCnts)
refCnts=myutils.sort_contours(refCnts, method="left-to-right")[0]
cnts=cv2.findContours(gray.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
cnts=imutils.grab_contours(cnts)
locs=[]
#遍历输入图片的轮廓,与标准图片的轮廓进行比较,得到每个字符的位置信息
for (i, c) in enumerate(cnts):
(x, y, w, h)=cv2.boundingRect(c)
ar=w/float(h)
if ar>2.5 and ar<4.0:
if (w>40 and w<55) and (h>10 and h<20):
locs.append((x, y, w, h))
#将字符位置按照从左到右的顺序排序
locs=sorted(locs, key=lambda x:x[0])
#遍历每个字符,将其与标准图片的字符进行比较,得到字符的值
output=[]
for (i, (gX, gY, gW, gH)) in enumerate(locs):
groupOutput=[]
group=[]
roi=gray[gY-5:gY+gH+5, gX-5:gX+gW+5]
roi=cv2.resize(roi, (57, 88))
#计算每个字符与标准字符的差异值
for (j, ref) in enumerate(refCnts):
#将字符缩放至相同尺寸
refROI=cv2.resize(ref, (int(gW*1.7), gH))
#计算字符间的差异值
score=cv2.matchShapes(refROI, roi, cv2.CONTOURS_MATCH_I1, 0.0)
group.append((score, j))
#将字符按照差异值从小到大排序
group=sorted(group, key=lambda x:x[0])
#选取差异值最小的字符作为预测字符
groupOutput.append(str(chr(65+group[0][1])))
#将字符按照从左到右的顺序组合在一起
output.extend(groupOutput)
#输出识别结果
print("".join(output))