mapper_options = pycolmap.IncrementalMapperOptions() mapper_options.extract_colors = False mapper_options.min_model_size = 3
时间: 2023-07-14 16:12:19 浏览: 234
这段代码是使用pycolmap库中的IncrementalMapperOptions类创建一个对象mapper_options。其中,extract_colors属性被设置为False,表示在执行增量式重建时不提取颜色信息。min_model_size属性被设置为3,表示只有当模型中至少有3个点时才进行增量式重建。这些选项可以根据需要进行修改。
相关问题
详细解释一下这段代码,每一句都要进行注解:tgt = f'/kaggle/working/{dataset}-{scene}' # Generate a simple reconstruction with SIFT (https://en.wikipedia.org/wiki/Scale-invariant_feature_transform). if not os.path.isdir(tgt): os.makedirs(f'{tgt}/bundle') os.system(f'cp -r {src}/images {tgt}/images') database_path = f'{tgt}/database.db' sift_opt = pycolmap.SiftExtractionOptions() sift_opt.max_image_size = 1500 # Extract features at low resolution could significantly reduce the overall accuracy sift_opt.max_num_features = 8192 # Generally more features is better, even if behond a certain number it doesn't help incresing accuracy sift_opt.upright = True # rotation invariance device = 'cpu' t = time() pycolmap.extract_features(database_path, f'{tgt}/images', sift_options=sift_opt, verbose=True) print(len(os.listdir(f'{tgt}/images'))) print('TIMINGS --- Feature extraction', time() - t) t = time() matching_opt = pycolmap.SiftMatchingOptions() matching_opt.max_ratio = 0.85 # Ratio threshold significantly influence the performance of the feature extraction method. It varies depending on the local feature but also on the image type # matching_opt.max_distance = 0.7 matching_opt.cross_check = True matching_opt.max_error = 1.0 # The ransac error threshold could help to exclude less accurate tie points pycolmap.match_exhaustive(database_path, sift_options=matching_opt, device=device, verbose=True) print('TIMINGS --- Feature matching', time() - t) t = time() mapper_options = pycolmap.IncrementalMapperOptions() mapper_options.extract_colors = False mapper_options.min_model_size = 3 # Sometimes you want to impose the first image pair for initialize the incremental reconstruction mapper_options.init_image_id1 = -1 mapper_options.init_image_id2 = -1 # Choose which interior will be refined during BA mapper_options.ba_refine_focal_length = True mapper_options.ba_refine_principal_point = True mapper_options.ba_refine_extra_params = True maps = pycolmap.incremental_mapping(database_path=database_path, image_path=f'{tgt}/images', output_path=f'{tgt}/bundle', options=mapper_options) print('TIMINGS --- Mapping', time() - t)
这段代码主要是使用 PyCOLMAP 库实现对图像的特征提取、特征匹配和增量式三维重建。具体解释如下:
```tgt = f'/kaggle/working/{dataset}-{scene}'```
定义了一个字符串变量 tgt,表示输出路径。
```if not os.path.isdir(tgt):```
如果输出路径不存在,则创建该路径。
```os.makedirs(f'{tgt}/bundle')```
在输出路径下创建子目录 bundle。
```os.system(f'cp -r {src}/images {tgt}/images')```
将源目录 src 中的 images 目录复制到输出路径下的 images 目录中。
```database_path = f'{tgt}/database.db'```
定义一个字符串变量 database_path,表示 PyCOLMAP 库中使用的数据库文件路径。
```sift_opt = pycolmap.SiftExtractionOptions()```
创建一个 SIFT 特征提取选项对象。
```sift_opt.max_image_size = 1500```
设置 SIFT 特征提取选项对象的最大图像尺寸为 1500×1500 像素。
```sift_opt.max_num_features = 8192```
设置 SIFT 特征提取选项对象的最大特征点数为 8192 个。
```sift_opt.upright = True```
设置 SIFT 特征提取选项对象的旋转不变性为 True,即不考虑图像旋转。
```device = 'cpu'```
定义一个字符串变量 device,表示计算设备类型。
```pycolmap.extract_features(database_path, f'{tgt}/images', sift_options=sift_opt, verbose=True)```
调用 PyCOLMAP 库中的 extract_features 函数,对输出路径下的图像进行 SIFT 特征提取,并将特征保存到数据库文件中。
```print(len(os.listdir(f'{tgt}/images')))```
输出输出路径下的图像数量。
```print('TIMINGS --- Feature extraction', time() - t)```
输出特征提取所花费的时间。
```matching_opt = pycolmap.SiftMatchingOptions()```
创建一个 SIFT 特征匹配选项对象。
```matching_opt.max_ratio = 0.85```
设置 SIFT 特征匹配选项对象的最大匹配比率为 0.85。
```matching_opt.max_distance = 0.7```
设置 SIFT 特征匹配选项对象的最大匹配距离为 0.7。
```matching_opt.cross_check = True```
设置 SIFT 特征匹配选项对象的交叉匹配为 True,即同时匹配两幅图像。
```matching_opt.max_error = 1.0```
设置 SIFT 特征匹配选项对象的最大误差为 1.0。
```pycolmap.match_exhaustive(database_path, sift_options=matching_opt, device=device, verbose=True)```
调用 PyCOLMAP 库中的 match_exhaustive 函数,对数据库文件中的特征进行 SIFT 特征匹配,并将匹配结果保存到数据库文件中。
```print('TIMINGS --- Feature matching', time() - t)```
输出特征匹配所花费的时间。
```mapper_options = pycolmap.IncrementalMapperOptions()```
创建一个增量式三维重建选项对象。
```mapper_options.extract_colors = False```
设置增量式三维重建选项对象的颜色提取为 False,即不提取图像颜色信息。
```mapper_options.min_model_size = 3```
设置增量式三维重建选项对象的最小模型大小为 3。
```mapper_options.init_image_id1 = -1```
设置增量式三维重建选项对象的第一张图像的 ID 为 -1,表示不指定。
```mapper_options.init_image_id2 = -1```
设置增量式三维重建选项对象的第二张图像的 ID 为 -1,表示不指定。
```mapper_options.ba_refine_focal_length = True```
设置增量式三维重建选项对象的相机内参的优化为 True。
```mapper_options.ba_refine_principal_point = True```
设置增量式三维重建选项对象的相机主点的优化为 True。
```mapper_options.ba_refine_extra_params = True```
设置增量式三维重建选项对象的额外参数的优化为 True。
```maps = pycolmap.incremental_mapping(database_path=database_path, image_path=f'{tgt}/images', output_path=f'{tgt}/bundle', options=mapper_options)```
调用 PyCOLMAP 库中的 incremental_mapping 函数,对数据库文件中的匹配结果进行增量式三维重建,并将重建结果保存到输出路径下的 bundle 目录中。
```print('TIMINGS --- Mapping', time() - t)```
输出增量式三维重建所花费的时间。
详细解释一下这段代码,每一句都要进行注解:t=time() # By default colmap does not generate a reconstruction if less than 10 images are registered. Lower it to 3. mapper_options = pycolmap.IncrementalMapperOptions() mapper_options.min_model_size = 3 os.makedirs(output_path, exist_ok=True) maps = pycolmap.incremental_mapping(database_path=database_path, image_path=img_dir, output_path=output_path, options=mapper_options) print(maps) #clear_output(wait=False) t=time() - t timings['Reconstruction'].append(t) print(f'Reconstruction done in {t:.4f} sec') imgs_registered = 0 best_idx = None print ("Looking for the best reconstruction") if isinstance(maps, dict): for idx1, rec in maps.items(): print (idx1, rec.summary()) if len(rec.images) > imgs_registered: imgs_registered = len(rec.images) best_idx = idx1 if best_idx is not None: print (maps[best_idx].summary()) for k, im in maps[best_idx].images.items(): key1 = f'{dataset}/{scene}/images/{im.name}' out_results[dataset][scene][key1] = {} out_results[dataset][scene][key1]["R"] = deepcopy(im.rotmat()) out_results[dataset][scene][key1]["t"] = deepcopy(np.array(im.tvec)) print(f'Registered: {dataset} / {scene} -> {len(out_results[dataset][scene])} images') print(f'Total: {dataset} / {scene} -> {len(data_dict[dataset][scene])} images') create_submission(out_results, data_dict) gc.collect() except: pass
这段代码主要是进行图像重建的过程,下面是每一句话的注释:
- t=time():记录当前时间,用于计算重建时间。
- By default colmap does not generate a reconstruction if less than 10 images are registered. Lower it to 3.:默认情况下,如果注册的图像少于10张,则colmap不会生成重建。将其降低到3。
- mapper_options = pycolmap.IncrementalMapperOptions():创建 pycolmap.IncrementalMapperOptions() 类的对象 mapper_options。
- mapper_options.min_model_size = 3:设置 mapper_options 的最小模型尺寸为 3。
- os.makedirs(output_path, exist_ok=True):使用 makedirs() 函数在指定路径 output_path 创建文件夹,如果文件夹已经存在则不会报错。
- maps = pycolmap.incremental_mapping(database_path=database_path, image_path=img_dir, output_path=output_path, options=mapper_options):使用 pycolmap.incremental_mapping() 函数进行增量式的图像重建,返回重建结果 maps。
- print(maps):打印 maps,用于调试和查看重建结果。
- #clear_output(wait=False):注释掉的语句,可能是用于清除输出缓存的,但是被注释掉了。
- t=time() - t:计算重建时间。
- timings['Reconstruction'].append(t):将重建时间 t 添加到 timings 字典中的 Reconstruction 键对应的列表中。
- print(f'Reconstruction done in {t:.4f} sec'):输出重建时间,保留小数点后四位。
- imgs_registered = 0:记录已经注册的图像数量。
- best_idx = None:初始化最佳重建的索引为 None。
- print ("Looking for the best reconstruction"):打印提示信息,表示正在寻找最佳重建。
- if isinstance(maps, dict)::如果 maps 是字典类型。
- for idx1, rec in maps.items()::遍历 maps 字典中的每一项,其中 idx1 是键,rec 是值。
- print (idx1, rec.summary()):打印 idx1 和 rec 的摘要信息。
- if len(rec.images) > imgs_registered::如果 rec 中注册的图像数量大于已经注册的图像数量。
- imgs_registered = len(rec.images):将注册的图像数量更新为 rec 中注册的图像数量。
- best_idx = idx1:更新最佳重建的索引为当前的 idx1。
- if best_idx is not None::如果存在最佳重建的索引。
- print (maps[best_idx].summary()):打印最佳重建的摘要信息。
- for k, im in maps[best_idx].images.items()::遍历最佳重建中的每一个图像。
- key1 = f'{dataset}/{scene}/images/{im.name}':构造输出结果的键值,格式为 dataset/scene/images/im.name。
- out_results[dataset][scene][key1] = {}:在输出结果字典中为当前图像的键值创建一个空字典。
- out_results[dataset][scene][key1]["R"] = deepcopy(im.rotmat()):将当前图像的旋转矩阵 R 深度复制到输出结果字典中。
- out_results[dataset][scene][key1]["t"] = deepcopy(np.array(im.tvec)):将当前图像的位移矩阵 t 深度复制到输出结果字典中。
- print(f'Registered: {dataset} / {scene} -> {len(out_results[dataset][scene])} images'):输出已经注册的图像数量。
- print(f'Total: {dataset} / {scene} -> {len(data_dict[dataset][scene])} images'):输出总共需要注册的图像数量。
- create_submission(out_results, data_dict):调用 create_submission() 函数生成提交结果。
- gc.collect():手动调用 Python 的垃圾回收机制,释放内存。
阅读全文