没有合适的资源?快使用搜索试试~ 我知道了~
15807ELSR:基于平面和点引导的高效线段重构武汉大学遥感与信息工程学院,武汉大学遥感与信息工程学院{伟东,万毅,张玉杰,刘晓,张斌,王喜奇}@ whu.edu.cn摘要三维(3D)线段有助于场景重建。现有的三维直线段重建算法大多是针对两幅或几十幅小尺寸图像的重建;而实际上通常有数百或数千个大尺寸图像。在本文中,我们提出了一个有效的线段重建方法称为ELSR1。ELSR利用在城市场景中常见的场景平面和可以从运动恢复结构(SfM)方法轻松获取的稀疏3D点。对于两个视图,ELSR有效地找到局部场景图像序列SfM:相机,稀疏3D点连接(a) 图像序列的预处理。平面来指导直线匹配,并利用稀疏的3D点来加速和约束匹配。为了重建具有多个视图的3D线段,ELSR利用了一种有效的抽象方法,该方法基于它们的空间一致性来选择实验结果表明,ELSR方法比现有方法具有更高的精度和效率。此外,我们的研究结果表明,ELSR可以有效地重建三维线的大型和复杂的场景,包含数千个大尺寸的图像。1. 介绍1.1. 动机和目标3D线段在大多数城市场景中占主导地位。它提供的结构信息对于3D场景抽象[12]、密集匹配[26]、平面检测[15]和表面重建[27]非常有用。但三维线段重建仍然是计算机视觉中一个具有挑战性的课题。现有的线重建方法的主要缺点是,他们缺乏一个优雅的解决方案,快速和强大的线匹配在两个视图。线匹配比点匹配更复杂,因为线段在两个视图中的纹理和几何形状都不明显,并且很少有基于深度学习的线匹配方法。†通讯作者1可在https://skyearth.org/publication/project/ELSR快速双视图匹配空间评估3D线(b) 线匹配和抽象。图1. ELSR的管道。ELSR从SfM流水线获取摄像机质量、稀疏3D点以及图像之间的连接。ELSR首先匹配图像对的线段,最后通过评估图像序列中的匹配来提取代表性的3D线。城堡#003(a)LPI,925秒(b)LJL,583秒Castle #005(c)GLM,2290秒(d)ELSR,0.5秒图2.通过两视图匹配重建三维线条[17][18][19][1ing.一般来说,需要对线条进行分组[7,21],并且需要对纹理进行校正[17,23]以实现鲁棒匹配。然而,这些操作在计算上是昂贵的,因为它们缺乏几何指导。本文主要研究了基于几何引导匹配的三维直线段重建方法,15808线段我们的方法基于两个观察:1)城市场景中存在多个平面,线段往往位于场景平面内; 2)在计算机视觉中,利用粗糙的三维模型可以大大提高三维重建的效率和精度。因此,如果我们已经找到场景平面,我们可以使用局部单应性来引导线匹配并将线候选者约束到具有稀疏3D点的小区域,这可以通过有效的运动恢复结构(SfM)方法(例如Visu- alSfM [32],Bundler[24]和OpenMVG [20])获得。然而,深入研究上述两个观察结果也带来了两个挑战:1)受限于城市场景的复杂性,准确且高效地找到所有场景平面是具有挑战性的;以及2)深度约束是相当粗糙的,因为使用SfM获得的3D点是稀疏的,并且线段在几何上是不清晰的。因此,我们将提出一种有效的方法来确定场景平面和计算单应性;我们将通过将稀疏的3D点与线和平面组合作为指导而不是确定来解决粗略的深度约束。1.1. 方法概述图1显示了ELSR的流水线。给定图像序列,首先利用SfM流水线获取摄像机姿态和稀疏三维点;然后,我们匹配两个视图的线条;最后,我们从图像序列中的所有匹配中提取代表性的3D线条。具体而言,ELSR包含三个组成部分:• 单 应 性 估 计 我 们 使 用 场 景 平 面 几 何 学(Sec.3.1),以有效地验证有效的单应性,在此期间,粗糙点深度用于加速(第3.1节)。3.2)。• 引导匹配(Sec. 3.3)。我们用潜在的单应性来匹配单行,并用粗略的点深度来约束匹配。• 抽象线(第二节)4). 对于多视图,首先找出图像对之间直线匹配的连接点,并对空间一致性进行评分;然后,我们选择具有代表性的匹配作为最终的3D线。如图2. ELSR算法在平面和点的引导下,将第二视图中的候选约束在一个,因此在两视图匹配中比现有算法更高效、更准确。2. 相关工作和我们的贡献2.1. 双视匹配作为线段重建的关键步骤,两视图下的线段匹配技术已经被研究了几十年。虽然过去的一些方法[29]仅依赖于纹理进行线匹配,但许多其他研究引入了相机姿态以进行稳健匹配。Schmid等人[23]前-利用对极几何中的投影变换来提高图像的灰度相关性。OKet al. [21]通过构造具有极线约束的图像线的Daisy描述子来改进纹理相关性。Mo- Hammed等。[1]提出了一种基于线对相交的候选点,并构造了一种用于鲁棒匹配的关联Sun等人[28]使用具有稀疏3D点的潜在Wei等[30]在场景平面假设下,通过具有成对线段的潜在单应性来匹配线。一些方法试图独立于相机姿态,这需要精心设计的描述符或几何约束。Zhang等人[33]为单独的线创建尺度不变的纹理描述符;并且为所有匹配构造关联图以增强匹配。Li等[17]对成对线段进行分组并构造仿射不变区域描述符。因为点匹配比线匹配更成熟、更健壮;一些算法利用线-点几何形状来确认线匹配。Fan等人[7,8]使用两点一线构造仿射不变结构。Manolis等人[18]建立了两点两线的射影不变结构。Ramalingam等人[22]使用了像[18]一样的投影几何来匹配点和线。Wei等[31]使用点匹配来构建关联图。然而,大多数算法在计算上是昂贵的。2.2. 多视图重建在线段匹配之后,聚类方法合并与同一条线相关的3D线Schmid等人[23] Weiet al.[31]基于图像中的投影合并3D线。图像空间中的合并是直观的,但是当线靠近核平面时,合并可能失败。此故障将导致许多不正确的3D线。因此,Weiet al. [31]丢弃到核点一定距离内的图像线Li等[17]使用场景平面约束来固定退化的3D线段,但是在复杂场景中,确定场景平面的耗时过程可能失败。Jain等人[13]合并位于环绕圆柱体内的3D线;然而,当没有尺度信息时,确定半径是具有挑战性的。Hofer等人[12]计算了对象空间中的聚类距离然而,错误的聚类是不可避免的,因此作者使用图优化来获得结果。2.3. 我们的贡献总的来说,我们的贡献是:• 本文提出了一种基于多幅图像的直线匹配和三维直线重建的有效方法,该方法简单易用,只需要SfM流水线的结果15809↔↔×.Σ↔∗l1l1l2A −e vx1, 1x 1,2x 2, 1矩阵 设M和c4是左3×3子矩阵DMaxDmin搜索间隔X^L1L2核线作为先验知识。• 我们利用二维直线和稀疏三维点之间的几何关系,有效地找到局部单应性。据我们所知,这是第一个工作,利用这种简单而有效的几何线段匹配。• 在大型图像数据集上进行评估时,ELSR比现有算法快1000倍以上在双视图匹配中;在多视图重建中,ELSR比现有方法快4倍,3D线条数量增加360%。3. 与两个视图本节介绍如何在场景平面和点的指导下有效地匹配两个视图中的线段我们根据图像的公共世界点的个数确定图像的邻域,并将一幅图像与它的t个邻域连接起来作为图像对进行匹配。3.1. 两两直线现在,我们引入几何约束来获得单应性以指导线匹配。 指场景平面为π=(vT,1)T,其中v=(v1,v2,v3)T。利用基本矩阵F,场景平面理论[23]表明,与π有关的像平面的单应性计算H=A−e′vT,(1)where e′ is a homogeneous 3D vector that represents theepipole of the second view. A是一个3×3矩阵,A=[e′] F.(二)其中[e′]是skew3 3矩阵。给定两个线匹配,表示为l1l′1和l2l′2,Wei等[30]通过列出四个方程来求解V,l′TA−e′vTx=0,(3)验证线匹配,其中端点x=(x,y,1)T在直线l=(a,b,c)T上。然后,第一行中的两行图像用H映射,并通过重叠和距离进行验证在本文的其余部分,所有的线和点都被表示为齐次形式,并标记第二个图像。事实上,因为v是一个3D向量,所以它可以用三个方程来确定:L1XY 2,1LY1LYellowY22x2.2H(x2,2)XY 2,2H外汇2.2πL1L2图3.成对直线的几何。x2,2l′2在等式中没有使用。(4)确定H.因此,它正好满足与H的映射中的核线约束。图4.点引导搜索。相邻点的深度范围将相交搜索限制在小的区间内。其中θ是两个向量的顺时针角度,H()用单应性H映射特征。当Sang(H)小于给定阈值tang时,我们说场景平面π为真,诱导的H有效。它比[30]更准确和有效。在[30]中,V是用最小二乘法对四个方程进行过拟合,而距离和重叠的计算效率不如角相似的方法。注意,成对线将仅在它们的交叉在每条线的tint像素内时使用,因为邻近线更可能是共面的并且可以减少计算此外,ELSR中的线段具有基于梯度方向的特定方向,如[9]所示3.2. 点引导搜索算法1展示了我们找到单应性的方法。搜索单应性,以找到满足Sang(H)tang的成对线匹配。<如示于图4,共面两两直线相交于一个确定的点x∈。因此,沿着核线搜索第二视图中的交点x′我们将展示通过SfM获得的稀疏3D点可以将搜索减少到很小interval.Σ′ ′′ΣTΣ我的天将第一个摄像机矩阵表示为P,这是一个3×4其中x的下标是“线索引,端点索引“的形式如图。3显示,我们有一个唯一的端点x2,2来通过角相似性验证H:=0,(4)15810P的最后一 列是,如果x(dep(x))的深度是可用的,计算x在物体空间中的位置是直接的:Sang(H)=Sang(H)x′2,2-x′2,1 ,H(x二,二)−x′2,1Σ,(5)X=X。−M−1c4+(dep(x<$)/cos(r,p))r<$T1<$T。(六)15811我|| ||←←- -←我/打开/关闭−←我Σ。ΣΣ算法1点引导搜索输入:ls,一对线;Ps是ls的交点的邻域三维点M为第二图像的交点tang,角度阈值;输出:H,有效的单应性; 1:H← nullHK图5. homogram hy引导匹配。l′j在内部搜索2:[x′mi n,x′ma x]←使用等式(6)有Ps和ls最好 的朋友 的最大距离|BD|超覆率3:for(x,y)∈[x<$′min,x<$′max]do4:如果M(x,y)/=空,则计算AB/CD以进行验证。重叠率是lk和l′中较短者与重叠长度之比。5:ls′M(x,y)6:H使用等式(4)有ls和ls′7:如果Sang(H)tang那么<8:tang←Sang(H)9:H←HI jStpixβφ φ摄像头负责人dsd德韦算法2单应性引导匹配中心点收缩延伸输入:li,单线,其深度范围已知;Hs是li的邻域同构; M是第二图像的线图;输出:j,li的最佳线的索引;图6. 利用从像素移位获得的dmax,dmin被缩小,dmax被扩展。 n=ddcos2β ,d<$min=dminDmax=Dmax+Dmax。1:Spos(i,:)←0第二章: 状态(:)←03:对于Hsk∈Hsdo如图5场演出,li当Particl′j被视为潜在匹配4:<$lk←使用等式(7)有li和Hskd(<$lk,l′)t和o(<$lk,l′)>t、(8)ikijPOS⊥Ijove5:for(x,y)∈lido6:l′jM(x,y)7:如果l′j=null且Status(j)= 1,则8:状况(j)19:如果l′j和l′k满足等式(8)(9)然后10:Spos(i,j)←更新等式(十一)11:j= argmax(Spos(i,j))其中r是通过摄像机中心(M-1c4)和x的单位三维矢量,p是主射线y的单位三维矢量。然后,通过用X进行投影,可以获得第二图像中的x X ′。不幸的是,x的深度是未知的。然而,tptsx的邻域点可以给出深度范围,其中其中Eq。(6)可以计算出x的区间值为x′,其中,d计算线段之间的最大距离,o给出重叠率,tpos和tove分别是位置和重叠率的阈值现在我们用深度约束控制错误匹配设l的端点为x。设其tpts邻域3D点的深度范围为dmin和dmax。深度范围可以用来约束x。但由于x可能超出深度范围,特别是当局部场景不连续时,需要对其进行扩展。然而,我们可能不知道物体空间的单位因此,我们利用像素单元和对象距离之间的连接来确定扩展。与图6,我们将主点水平移动tpix像素以获得β。然后,我们可以计算对应于像素偏移的深度偏移最后,对dmin和dmax进行了收缩和扩张“是的。”“可能是超越”而min分别与x,以获得深度范围。x最大值xXminxmax当深度为不连续的因此,搜索是沿着x∈m′in扩展的,对于某些像素,例如10个像素就足够了。3.3. 单应导引匹配算法2示出了匹配过程。设直线li的第k个邻域单应性为Hk,通过构造相交的KD树可以有效地查询该邻域单应性。将li与Hk的映射表示为<$lk=Hk(li).(七)LY一CBJdCITD我搜索范围Li15812×dep(x)∈ dmincos2β,dmax2−cos2β 。(九)线dep(x)=m3τ(x,Fx×l′,P,P′),(10)其中,m3是P的最后一行,τ是用于获得3D点的三角测量函数,Fx l′计算l′上与x相关的点。一般有几个同形异义词行,其中一些可能是不正确的。 因此,我们使用15813的1的1↔.Σ.Σ⊥Σ我 J的1的1Σ。Σ4.2.贪婪分配Thomneighborhoodhomographies来引导L1并对其中x1和x2是la1上的两个端点。我们通过位置相似性的总结进行匹配:特霍姆Spos(i,j)=exp−d(<$lk,l′)/2tpos.(十一)k=1引入θa,因为3D线的精度与它们到对极平面的距离密切相关[10]。tepi是对极角的正则化阈值。选择具有最大Spos(i,j)的lil′j作为正确匹配。4. 从多个视图在两个视图中的每个匹配将重建3D线段;因此,与同一条线相关的3D线段需要合并为一个簇[12,13,31]。然而,它很容易失败,原因有三:1)固定阈值容易产生不正确的聚类; 2)错误的匹配会导致重建效果不佳;以及3)目前没有鲁棒的RANSAC方法来确认线簇的内点。因此,ELSR从聚类中提取代表性的线,而不是合并它们,这可能更健壮和有效。抽象包含两个步骤:1)计算3D线之间的空间相似性,以及2)基于其与其它线的空间相似性来提取所有视图上的代表性3D线。4.1. 3D线条将从la1和la2三角剖分的3D线表示为La。La和Lb的相似性通过物体空间中的角度相似性和图像空间中的位置相似性来评分。Sang (a,b ) =λ→La,→Lb( 12)Spos(a,b)=maxd(<$la1,lb1),d(<$la2,lb2),(十三)其 中,la1 和 la2 是La 到 L b的两 个 视 图 的 投 影 。 e 、o(<$la1,lb1)和o(<$la2,lb2)不应大于tove。3D线具有方向,因为端点我们得到向量s =[S1,S2,..., 在计算每个3D线的空间分数之后。然后,用贪婪策略确认代表性3D线:1) 求a∈[1,n](s(a)).如果s(a)≤0,则停止选择。否则,请选择La 作 为代表性3D线,并将s(a)设置为0。2) 设置所有与La一致的3D线,即,s(b)= 0当S a> 0,b>0时。五、3) 返回步骤1)。为了鲁棒性,仅当代表性3D线的空间分数大于1时才使用该代表性3D线,这意味着它与其他线具有空间相似性。5. 实验我们评估了ELSR五个数据集,并与现有的四种算法进行了比较。选项卡. 1描述了数据集,图。7可视化他们的摄像机和用VisualSfM获取的稀疏点[32]。前三个数据集是开源的;我们用无人驾驶飞行器捕获了另外两个。我们用LSD [9]检测线段,而不设置阈值。秒5.3讨论了ELSR中的超参数。我们的测试系统是一台台式机,配有支持16个线程的英特尔(R)酷睿(TM)i7-10700 KF CPU 、 32 GB 主 内 存 和 Nvidia RTX 3070GPU。已经基于沿着线段的梯度取向对图像线的我们使用正则化函数来统一方程。 (12)和(13):S(a,b)= e− max{Sang(a,b)/tang,Spos(a,b)/tpos}/2。(14)Eq. (14),La的空间得分是对(D)+HU]-JHVX(G)*(E)DVWOH(c) DXEOiQ与其他3D线条的空间相似性:nSa= ln(θ a/2tepi)S(a,b)s.t. S(a,b)>0。五、(十五)b=1其中θa是线段和极线的最小角度,即θ a= min。。Fx1,la2,. Fx2,la2球,(16)(H)1iQJER15814图7.相机和稀疏的3D点。5.1. 与两个视图为了评估两视图匹配,我们通过将(timg)设置为3,从Herz-Jesu和Castle数据集制作了165个我们将ELSR与LPI [6,7],LJL [14,17]和GLM(基于图形的线匹配)[5,30]进行了比较。我们没有15815比例数量3072 ×2048都柏林[16] 3699000×6732 3478广州50010336×7788 3139宁波145411608 ×87083197表1.用于评估的图像数据集赫茨耶稣城堡总平均数LPI 14.78小时11.98米15.73小时10.49米LJL 10.37小时8.41米32.65小时21.76米GLM 39.83小时32.29米56.39小时37.59米ELSR29.12秒0.39秒40.82秒0.45秒表2.运行时间匹配165对。“h "、“m”和“s”表示“小时"、“分钟”和“秒”。时间不包括线检测,而包含Visual SfM的运行时间。ELSR图9.ELSR的失败情况:当场景只有一个平面,平面中的线条有重复图案时,它可能会失败因为稀疏连接点的深度约束可能会导致假阴性。至于计算时间(Tab。2),ELSR至少比其他三种算法快1000倍以上的两个数据集。图9显示了ELSR的一个用F矩阵和N-视图SfM的点运行对于LJL是不公平的,因为它不需要先前的线索。因此,我们还使用SIFT [19]+GCRANSAC [2]+MAGSAC [3]运行 ELSR得到精确的F矩阵和F点;匹配量大致相同,但不同误差区间的比例下降了0.1%-3%。9876543210误差(a) 海尔热叙1760.950.840.7320.610.5 0误差(b) 城堡10.90.80.70.60.50.40.35.2. 从多个视图我们使用表1中的所有数据集1.一、我们还将其结果与Line3D++ [12]的结果进行了比较,其中代码可用,并且是目前最有效的线重建算法。ELSR和Line3D++都使用VisualSfM的结果(相机和稀疏3D点)作为输入。在Line3D++中,我们将最大线段数和最大图像宽度这两个参数设置为一个非常大的数字,以避免其对图像的控制图8.用165幅图像对进行两视图匹配的评价。“Q”和“P”表示“数量”和“比例”。“ELSR(2)”运行时不使用N-view SfM。注意,比例包含误差区间之前的汇总。计算Line3D++,因为它无法匹配具有两个视图的线。与[12,13]一样,我们在对象空间中评估匹配。我们使用匹配结果重建了3D线段,并使用ContextCapture [4]获取了密集点。然后,我们计算从3D线段到网格的最大距离作为误差。我们提出了在不同的时间间隔的错误分布,因为它可能是不准确的,以确定正确/不正确的匹配与一个固定的阈值。注意,LPI、GLM和ELSR需要点或相机作为先验知识,这些先验知识是在我们的实验中使用VisualSfM获得的。图8描绘了评估结果。ELSR产生了最好的精度。如图2、ELSR产生较少的无序3D线。然而,ELSR并不是最好的尺寸和线段编号。Line3D++同时运行CPU和GPU,而ELSR仅运行CPU。如图10,ELSR总是比Line3D++获得更多的3D线,特别是对于航空影像数据集。局部区域的一些细节见图11。ELSR获得了更多关于场景细节的3D线条,如窗户,道路和操场。图图12绘制了3D线上端点的轮廓,这表明ELSR的深度约束在控制假阳性方面是有效的。为了定量评估,我们使用ContexCapture重建前三个数据集的3D网格,并计算从3D线到网格的最大距离结果示于图十三岁ELSR重建的三维线条误差较大;然而,我们认为这种牺牲是可以接受的,因为ELSR比Line3D++产生了更多的正确线。对于运行时 间,Line3D++在前两个数 据集中比ELSR慢三倍左右在尺寸和数量都很大的航空图像中,Line3D++是几个小时104ELSR-QELSR(2)-QLPI-QLJL-QGLM-QELSR-PELSR(2)-P104ELSR-QELSR(2)-QLPI-QLJL-QGLM-QELSR-PELSR(2)-PLPI-PLJLLPIGLM数量比例数据集IMGs尺寸(px)Antp奥地利[25]城堡[25]25303072 ×204838953892算法15816(a) 1911行,27秒2742行,5秒(b) 3085行,26秒4822行,6秒(c) 29944线,25分钟124255线,9分钟(d) 25294线,42分钟90421线,10分钟(e) 75803行,5.5小时268233行,1.6小时Line3D++ELSR图10.线路改造的数量和时间。Line3D++使用GPU。该索引与图1中的索引一致。7 .第一次会议。比ELSR慢。这些是预期的结果,原因如下。第一,Sec。5.1表明ELSR中的线匹配是非常有效的。第二,ELSR中的许多函数是独立的,并在多线程中处理。同样,Line3D++仅使用极线约束来减少候选,并且需要至少三个视图来建立3D线候选。(a) 本地区域(b)Line3D++(c)ELSR图11.局部区域中的三维线段。(a) Line3D(b) ELSR图12.都柏林、广州和宁波的3D线路轮廓。异常值用红色表示。5.3. 超参数的影响ELSR有一些直观的超参数。为了解释它们的影响和局限性,我们使用Castle数据集改变超参数来评估它们对ELSR的影响。位置相似度(tpos=2)、相交距离(tint=10)和重叠率(tove=0. 5)是常见的参数,并且它们已经在过去的几个作品[30]中针对双视图匹配进行了研究。因此,我们将它们设置为公共值,并158171200100080060040020010.80.60.40.0250.025500500045004000350030000.0250.020.0155500500045004000350030000.20.0150 2 4 6 8 1005101520253000.025支持图像(timg=1,3)55000.025角度相似度(tang=5°)550020001500(a) 局部3D网格10.8误差(b) 海尔热叙5410.80.020.015500045004000350030000.02500045004000350030000 10 20 30 40 500.0150510152025301000500030.620.410.200.60.40.20.0250.02支持点(tpts=10)5500500045004000350030000.0250.02支持单应性(thom=10)550050004500400035003000误差误差0.0150 10 203040500.015051015202530°(c) 城堡(d) 都柏林Shift pixels(tpix=10)对极角(tepi=5)图13.从线到3D网格的最大距离被计算为误差。探索其他六个参数的影响。图14示出了不同阈值的RMSE和数量。像素的偏移(tpix)对结果影响不大。因为在大多数情况下,点深的范围覆盖了线深增加支持度直方图(thom)会提高数量,因为它增加了找到正确匹配的可能性。支持点(tpts)和极线角(tepi)的宽松阈值带来了更多的3D线段,而精度普遍下降。然而,这一结果并不适用于角相似性(tang)。因为宽松的阈值会导致更多的错误匹配,并且其中许多会获得较低的空间分数。在这些参数中,在构建图像对时支持图像的数量(timg)对结果影响最大,因为更多的图像对产生更多的匹配。因此,我们依靠我们的经验,分别为大型和小型图像数据集设置timg6. 限制如上节所示,ELSR不是一个无参数算法.因为它有几个超参数,需要参数调整以获得最佳性能。支持图像的数量可以显著影响3D线的数量,并且打开该参数将以运行时间为代价获得更多的3D线。此外,ELSR选择具有代表性的3D线,以获得更好的速度和鲁棒性。由于单一的3D线只是重新-图14.通过改变超参数对Castle数据集进行评估。如果使用两个视图来构建集群,则位置精度可能不如合并集群那样精确。因此,利用多视图优化,如光束法平差,将是未来的工作,以提高精度。最后,ELSR需要提前运行基于点的SfM,这使得它在点难以检测时不适用。7. 结论在本文中,我们提出了一种新的算法称为ELSR的有效的线段重建。ELSR可以有效地匹配线段,通过利用场景平面和稀疏点,和ELSR抽象的代表性的3D线是鲁棒的假匹配。 我们的研究结果表明该方法在两视匹配中比其他方法更有效、更准确。与现有最有效的线段重建算法Line3D++相比,ELSR在重建速度和三维线的数量上也显示出了优越性未来,我们将首先通过多视图优化来提高重建精度,然后,利用精确的3D线来给出更好的建筑物重建。确认本 工 作 得 到 国 家 自 然 科 学 基 金 项 目 42001406 和42030102的资助。ELSR-QLine3D++-QELSR-PLine3D++-PELSR-QLine3D++-QELSR-PLine3D++-P104ELSR-QLine3D++-QELSR-PLine3D++-PRMSE数量RMSE数量RMSE数量RMSE数量RMSE数量RMSE数量数量比例数量数量比例比例RMSERMSERMSE数量数量数量RMSERMSERMSE数量数量数量15818引用[1] 穆罕默德·沙赫里和阿尔珀·耶尔马兹宽基线立体声中的线匹配:自上而下的方法。IEEE Transactions on ImageProcessing,23(9):4199-4210,2014。2[2] 丹尼尔·巴拉斯和吉瑞·麦塔斯图形切割ransac。在CVPR中,第6733-6741页,2018年。6[3] Daniel Barath , Jana Noskova , Maksym Ivashechkin ,and Ji Zurr 'sMatas.Magsac++,快速、可靠、准确的稳健估计器。在CVPR中,第1301-1309页,2020年。6[4] 本特利情景捕捉https://www.bentley的网站。com/zh/products/brands/contextcapture. 6[5] 魏东。Glm代码。https://github. com/weidong-whu/line-match-RRW。5[6] 范斌。LPI代码。https://kailigo.github.io/projects/LineBenchmark/codes/LPI.zip. 5[7] B. 范,F.Wu和Z.胡通过点对应进行线匹配CVPR,2010。一、二、五[8] Bin Fan,Fuchao Wu,Zhanyi Hu.鲁棒的线匹配,通过线点不变。Pattern Recognition,45(2):794-805,2012. 2[9] 拉斐尔·格罗彭·冯·吉奥伊,杰瑞米·雅库博维奇,让·米歇尔·莫雷尔,格雷戈里·兰德尔. Lsd:一个快速线段检测 器 , 带 有 错 误 检 测 控 制 。 IEEE Transactions onPattern Analysis and Machine Intelligence,32(4 ):722-732,2010。三、五[10] R. Hartley和A.齐瑟曼。计算机视觉中的多视图几何。2003. 5[11] 曼努埃尔·赫塞尔。Line3d++代码。https://github.com/ manhofer/Line3Dpp.[12] Manuel Hofer,Michael Maurer,Horst Bischof.利用线段进行有效的三维场景抽象。计算机视觉和图像理解,157:167-178,2017。一、二、五、六[13] 阿琼·杰恩,克里斯蒂安·库尔兹,托尔斯滕·托尔·马伦,汉斯·彼得·赛德尔.利用全局连通性约束从图像重建三维直线段。见CVPR,第1586-1593页,2010年。二、五、六[14] 李凯。Ljl代码。https://github.com/kailigo/LineSegmentMatching. 5[15] C. Kim和R.曼杜奇曼哈顿世界中的线对应平面结构。InACCV,2014. 1[16] 莱弗2015年都柏林市航空激光和摄影测量测量采集记录。https://geo.nyu.edu/catalog/nyu_2451_38684. 6[17] 凯丽和简瑶。利用共面线索进行直线段匹配与ISPRSJournal of Pho- togrammetry and Remote Sensing,125:33-49,2017。 一、二、五[18] M.I.A. Lourakis,S.T. Halklift,and S. C. Orphanoudakis.使用投影不变量匹配平面表面的不同视图。Image andVision Computing,18(9):673- 683,2000。2[19] 洛警官从尺度不变的关键点中提取独特的图像特征。国际计算机视觉杂志,60(2):91-110,2004年11月。6[20] Pierre Moulon,Pascal Monasse,Renaud Marlet,et al.相对运动的全局融合,用于从运动中获得鲁棒、准确和可扩展的结构。InICCV,2013. 2[21] Ali Ozgun Ok , Jan Dirk Wegner , Christian Heipke ,Franz Rottensteiner,Uwe Soergel和Vedat Toprak。城市地区航空立体影像中直线段的匹配ISPRS Journal ofPhotogrammetry and Remote Sensing , 74 : 133-152 ,2012. 一、二[22] Srikumar Ramalingam,Michel Antunes,Daniel Snow,Gim Hee Lee,and Sudeep Pillai.线扫描:宽基线匹配和3D重建的交比。在CVPR,第1238-1246页2[23] C. Schmid和A.齐瑟曼。跨视图自动行匹配。在CVPR,第666-671页,1997中。一、二、三[24] Noah Snavely,Steven M Seitz,and Richard Szeliski.从互联网照片集中建立世界模型。International Journal ofComputer Vision,80(2):189-210,2008. 2[25] Strecha。Strecha dense mvs. https://documents.epfl.ch/groups/c/cv/cvlab-unit/www/data/multiview/denseMVS.html。. 6[26] Takayuki Sugiura , Akihiko Torii , and MasatoshiOkutomi.基于点云和线云的三维曲面重建。在3D视觉国际会议上,第264-272页1[27] T. 杉浦A.Torii和M.奥富从点云和线云重建三维表面在2015年的3D视觉国际会议上。1[28] Yanbiao Sun,Liang Zhao,Shoudong Huang,Lei Yan,and Gamini Dissanayake.基于平面全息的立体航空影像直线匹配。ISPRS Journal of Photogrammetry and RemoteSensing,104:1-17,2015。2[29] Zhiheng Wang,Fuchao Wu,and Zhanyi Hu. Msld:一个 健 壮 的 行 匹 配 描 述 符 。 Pattern Recognition , 42(5):941-953,2009. 2[30] Dong Wei,Yongjun Zhang,Chang Li.基于重加权随机游动的同素图上的鲁棒线段匹配。模式识别,111:107693,2021。一二三五七[31] 董伟,张永军,刘心怡,李昌,李卓凡.通过对线点图进行排序,实现跨视图的稳健线段匹配ISPRS Journal ofPhotogrammetry and Remote Sensing , 171 : 49-62 ,2021。二、五[32] 吴昌昌。从运动到线性时间增量结构。在3D视觉国际会议上,第127-134页,2013年。二、五[33] Lilian Zhang和Reinhard Koch。基于lbd描述子和两两几何一致性的高效鲁棒线段匹配方法Journal of VisualCommunication and Image Representation,24 (7 ):794-805,2013. 2
下载后可阅读完整内容,剩余1页未读,立即下载
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功