没有合适的资源?快使用搜索试试~ 我知道了~
基于用户交互的旅行计划生成方法研究与实验
Maximal Likelihood Itinerary Planning with UserInteraction DataKeisuke Otaki1, Yukino Baba21Toyota Central R&D Labs., Inc., Koraku Mori Building 10F, 1-4-14 Koraku, Bunkyo-ku, Tokyo, 1120004, Japan2The University of Tokyo, 3-8-1 Komaba, Meguro-ku, Tokyo, 1538902, JapanAbstractPlanning itineraries is a complex task for tourists. While some tourists have their favorite events andplans (e.g., places to visit, ways to travel) precisely in mind, others would like to explore multiple choicesof possible events. To improve the user experiences of tourism, we develop a novel itinerary planningframework in which users directly interact with our system by editing displayed itineraries. Our idea isto collect edition-based feedback via editions by users, to estimate user preferences from the editions,and to utilize this data when generating personalized itineraries. To implement this framework, wegeneralize the maximum likelihood planning framework by introducing a new optimization problemto estimate transition probabilities between POIs with both historical and interaction data. To explainhow the maximum likelihood itinerary planning-based method works, we report our proof-of-conceptexperiments aiming to provide a new perspective for interactive itinerary planning with user interaction.Keywordsitinerary recommendation, orienteering problem, maximal likelihood planning, optimization1. IntroductionBackgroundPlanning an itinerary (also called a travel plan or trajectory) is a complex taskwhen a tourist plans a trip. Planning often involves places to visit (e.g., points-of-interests,POIs), places to stay (i.e., accommodations), how to travel between places (e.g., transportationand its mode), booking, and payments (if needed). While some tourists have their favoriteplaces and/or plans exactly in mind, others would like to explore several choices to visit. Inthe literature, optimization-based methods have been studied as an important component forgenerating itineraries [1, 2, 3, 4]. A well-known optimization problem called the orienteeringproblem or its variants are often employed [5, 6]. The orienteering problem is the problem ofconstructing a trajectory (i.e., sequences of POIs) to maximize the benefits from the visitedplaces under travel distances/time constraints. An important process behind the orienteeringproblem is how to evaluate the benefits of POIs for users. Using some objective values (e.g., anaverage rate or staying time of the POI) we can build traditional and common itineraries, whilewe can build personalized itineraries with some subjective values (e.g, a rate or staying time bya specific user).RecSys Workshop on Recommenders in Tourism (RecTour 2022), September 22th, 2022, co-located with the 16th ACMConference on Recommender Systems, Seattle, WA, USA� otaki@mosk.tytlabs.co.jp (K. Otaki); yukino-baba@g.ecc.u-tokyo.ac.jp (Y. Baba)� 0000-0001-9431-0867 (K. Otaki)© 2022 Copyright for this paper by its authors. Use permitted under Creative Commons License Attribution 4.0 International (CC BY 4.0).CEURWorkshopProceedingshttp://ceur-ws.orgISSN 1613-0073CEUR Workshop Proceedings (CEUR-WS.org)Figure 1: System overview. Our method generates a ranked list of itineraries. Our key component is atransition probability matrix among POIs. We try to update such a matrix using interaction data; weassume that users interact with our interface (e.g., Web/App), and operations like Swap, Ins, and Del areallowed to edit itineraries (see also Sec. 3.1 for editions).Related WorkIntegrating user preferences for places and/or itineraries with optimizationwhen generating personalized itineraries is promising to improving the user experiences. Inprevious work, Choudhury et al. [2] constructed a sequence of photographic spots using meanstaying times of places to reflect user preferences, and they showed that generated trajectoriesare comparable with those generated by professionals. Lim et al. [3] utilized estimated stayingtimes per user as user preferences in defining an objective function of the orienteering problem,but feedback is not considered. Roy et al. studied the task of interactively planning itinerarieswith feedback on POIs [7]. They proposed how to model such feedback and utilize them, buta type of supported feedback is limited. Chen et al. [4] adopted a similar strategy by [7], butformally discussed how historical data of itineraries are taken into account in optimization (thisframework is referred as maximum likelihood planning in the literature [8, 9]).0贡献我们开发了一个新框架,利用历史数据和与用户的交互收集的数据。我们的方法的系统概述如图1所示。我们期望使用交互数据有望改善用户体验,然后概括一种反馈类型,以从用户那里收集更丰富的数据,以估计他们的偏好。我们的方法基于收集到的旅行计划(图 1中的历史数据)和学习到的兴趣点(POI)之间的转移概率(图 1中的转移矩阵)生成旅行计划。此外,为了结合这些更丰富的数据,我们尝试更新学习到的概率。请注意,我们假设交互是通过某种Web界面实现的,在本文中,我们考虑了旅行计划的三种操作,即POI的 交换 、 插入 和 删除 (图 1 中的 交互 )。我们提出的方法是 [ 7 ] 和 [ 4 ]的追随者,但是我们使用用户交互的估计策略在这样的意义上是全新的,因为这样的概率可以通过收集的交互数据学习到。在我们的概念验证实验中,我们评估了收集的交互数据如何影响基于我们的假设下结果排名的旅行计划列表的多样性对设计旅行计划服务是重要的。我们确认我们的框架生成了基于收集数据的多样的旅行计划。𝑁−1∑︁𝑖=2𝑁𝑁∑︁𝑗=2𝑥1,𝑗 =𝑁−1∑︁𝑖=1𝑥𝑖,𝑁 = 1,𝑁−1∑︁𝑖=1𝑥𝑖,𝑘 =𝑁𝑁−1∑︁𝑖=1𝑁∑︁𝑗=2𝑡𝑖,𝑗𝑥𝑖,𝑗 ≤ 𝑇max(1c)𝑢1 = 1, 𝑢𝑁 = 𝐿, 2 ≤ 𝑢𝑖 ≤ 𝑁(∀𝑖 = [𝑁] ∖ {1})(1d)𝑢𝑖 − 𝑢𝑗 + 1 ≤ (𝑁 − 1)(1 − 𝑥𝑖,𝑗)(∀𝑖, 𝑗 ∈ [𝑁] ∖ {1})(1e)𝑥𝑖,𝑗 ∈ {0, 1}, 𝑢𝑖 ∈ Z(∀𝑖, 𝑗 ∈ [𝑁])(1f)02. 初步0在本文中,[ � ] = { 1 , 2 , . . . , � } ,其中 � ∈ Z 是某个自然数。任何序列都是从 1开始的。在表示POI的符号的有限集合 � 上,由 � 中的元素组成的长度为 � 的序列用 X = � � 1 , � 2 ,. . . , � � � 表示,其中对于任意 � ∈ [ � ] ,都有 � � ∈ � ,并且 � = | X |。序列表示一个旅行计划,其中用户首先访问 � 1 ,然后访问 � 2 ,最后访问 � � 。在 X 中从 � 到 �的直接旅行写作 � → � ∈ X 。换句话说,对于某个 � ∈ [ | X | − 1] ,有 � � = � 和 � � +1 = �。此外,我们写作 � ∈ X ,当且仅当存在 � ∈ [ | X | ] ,使得 � � = �。在本文中,我们自然地将集合 � = { X 1 , . . . , X |�| } 的关系 ∈推广为序列。我们的框架生成了一个旅行计划的排名列表,长度为 � 的列表 � = � X (1) , X (2) ,. . . , X ( � ) � 表示一个旅行计划的排名列表。02.1. 旅行计划的越野问题0越野问题是一个经过深入研究的组合优化问题 [ 5 ],并且在文献中应用于生成旅行计划 [ 2 , 3 , 6 ]。在不失一般性的情况下,我们假设在规划旅行计划时 1 ∈ � 是起始POI, � ∈ �是目标POI。简单的越野问题定义在一个完全图 � = ( �, � ) 上;顶点集 � 代表一组POI,边集 �代表 � 中POI之间的旅行,问题涉及在 � 上找到一条具有某些目标和约束的旅行路线。我们假设 � �,� 和 � �,� 分别表示从 � 到 � 的旅行时间和距离。 � max 是总旅行时间,每个POI � ∈ � 的得分Score( � ) 给定。我们准备决策变量 { � �,� ∈ { 0 , 1 } | ( �, � ) ∈ � } 和 { � � ∈ Z | � ∈ � } ,其中 � �,� = 1 当且仅当 � 在 � 后被访问,而 � � 表示访问 �时的顺序。然后,越野问题如下形式地描述。0最大 �,�0� =2 分数( � ) ∙ � �,� (1a)0� =2 � �,�, � ( 对于 � = 2 , . . . , � − 1) (1b)0注意,方程(1a)要求我们在 �中游览热门POI。约束方程(1b)确保结果的旅行是有效的。约束方程(1c)用于限制总旅行时间与 � max有关。约束方程(1d)和方程(1e)来自于避免子旅行的著名MTZ约束[10]。约束方程(1f)定义变量。为了考虑POI之间的距离,可以采用基于方程(1a)的多目标函数,其中 �, � ∈ R:max𝑥,𝑢 −𝛼 ×⎛𝑁∑︁𝑖=1𝑁∑︁𝑗=1𝑐𝑖,𝑗 · 𝑥𝑖,𝑗⎞+ 𝛽 ×⎛𝑁−1∑︁𝑖=2𝑁∑︁𝑗=2Score(𝑖) · 𝑥𝑖,𝑗⎞(2)arg max𝑥,𝑢Pr(X) ≈ arg min𝑥,𝑢∑︁(𝑖,𝑗)∈𝐸− log Pr(𝑋𝑡+1 = 𝑗 | 𝑋𝑡 = 𝑖) · 𝑥𝑖𝑗(3)̸0在我们的实现中,为了从 1 到 � 生成长度为 � 的序列,我们用以下约束替换方程(1c) ∑� � � � ≤� ,其中 � � ∈ { 0 , 1 } 对于所有 � ∈ [ � ] ,其中 � � = 1 表示访问 POI �。此外,通过用方程(2)替换方程(1a),我们可以使用定向问题构建我们的基准行程生成方法。02.2. 最大似然规划0设 X 为(可行的)行程, � 为所有可行行程的集合。接下来,我们将专注于对于任意 X ∈ �,都有 | X | = � 的情况。最大似然规划的目标是解决 max X ∈� Pr ( X )。这个问题设置在文献中引起了很多关注[4, 8, 9]。在一阶马尔可夫链近似下,对于 X = � � 1 , �2 , . . . , � � � , Pr ( X ) 可以近似为 Pr ( X ) ≈ Pr ( � 1 ) Pr ( � 2 | � 1 ) . . . Pr ( � � | � � − 1 )。对我们的行程规划施加了一个隐含约束 Pr ( � 1 = 1) = 1 。0方程(3)表明,用于定向问题的现有求解器直接适用于方程(3)的最大似然规划[8,9]。也就是说,使用一个成本值为 � ^ �� := − log Pr ( � � +1 = � | � � = � )的求解器,我们可以获得一个最大似然路线 X � 。接下来,我们将写作 � �,� := Pr ( � � +1 = � | � �= � ) 以简化。02.3. 生成解的列表0典型的优化问题及其求解器只会输出一个最优解。然而,在应用中更倾向于显示多个解(例如,在Web上)。现在我们需要使用现有求解器计算(可能的)前 �个解,已经有一些已知的方法被提出[11],在这些方法中,我们需要确定决策变量的顺序并迭代地解决子问题。我们不采用这种需要一些算法设计的程序,而是使用以下实现来获得 � 个解。设 �( � ) 为有序集合的 � 个解,� (0) = � 。为了生成下一个解(即第 � 个解),我们在 X ( � ) ∈ � ( � − 1)的附加约束下解决优化问题。最终,我们得到了一个有序集合 � ( � ) = { X (1) , X (2) , . . . , X ( � )} ,包括 � 个行程。03. 提出的框架0我们提出了一个新的框架,用户可以通过编辑显示的行程直接与我们的系统进行交互。我们设计这个框架的动机是通过用户的编辑来收集基于版本的反馈,从版本中估计用户偏好,并在生成个性化行程时使用这些数据。为了实现这个框架,我们进行了泛化。̸0通过定义一个新的优化问题,使用交互数据来估计兴趣点之间的转移概率,进行最大似然规划。03.1. 用户编辑0用户与服务界面进行交互(例如Web/移动应用程序)。我们从用户那里收集基于编辑的反馈,代表了他/她在行程中的偏好。在我们的系统中,考虑了以下三种类型的编辑。0交换 对于 X = � � 1 , � 2 , . . . , � | X | �,交换两个相邻的兴趣点会生成一个新的行程 X ′ = � � ′ 1 , � ′2 , . . . , � ′ | X | �,其中存在 � ∈ [ | X |− 1],使得 � ′ � = � � +1,� ′ � +1 = � �,并且对于所有 � ′ ∈[ | X | ] � { �, � + 1},满足 � ′ � = � �。0插入 对于 X = � � 1 , � 2 , . . . , � | X | �,插入一个新的位置 � ′ 会生成一个新的 X ′ = � � ′ 1 , � ′ 2 , . .. , � ′ | X ′ | �,使得 | X | + 1 = | X ′ |,并且对于某些 � ∈ | X | � { 1 , � },满足 � ′ � �∈ X, X � = X′ � 对于 � ≤ � − 1,� > �。0删除 对于 X = � � 1 , � 2 , . . . , � | X | �,删除一些位置 � ′ ∈ X 会生成一个新的 X ′ = � � ′ 1 , � ′ 2 ,. . . , � ′ | X ′ | �,使得 | X | − 1 = | X ′ |,并且对于某些 � ∈ | X | � { 1 , � },满足 X � = X ′ � 对于� ≤ � − 1,� > �。0请注意,这些与现有工作(例如,[ 7 ])不同,后者仅使用兴趣点的反馈。03.2. 利用优化进行用户编辑的最大似然规划0我们提出了一种使用来自用户编辑的反馈的新行程规划方法,该方法在第3.1节中定义。我们的想法包括以下三个步骤。01. 将 { � �,� } �,� ∈ [ � ] 的估计任务转化为一个优化问题,2.通过惩罚函数和收集的反馈数据优化我们的广义优化问题(1),并计算修改后的 { � ˜ �,� } �,� ∈ [ �],以及03. 在生成最大似然行程时采用(2)中的修改概率。03.2.1. 第一步:基于学习的解释0现有方法通过计算历史数据 � (例如,历史轨迹或路线)来估计 � �,� [ 4 , 8 ]。估计 � �,� 的一种简单方法是将 � 中的数据计数为 � �,� = |{ � → �0|{ � ∈�}|。我们将这个估计问题作为以下优化问题:0� ^ := arg min �0∑�0�,�0���� � �,� − |{ � 0|{ � ∈ �}|02,受限于 ∑�0� � �,� = 1( � � ∈ [ � ]) (4)0这里Eq.(4)可以通过封闭公式求解,Eq.(4)的解记为 � ^。请注意,其他变体已经讨论过[ 8 , 9];例如,具有 � > 0 的拉普拉斯平滑可以用来估计 � ^0写出术语 ∑� �,� ��� � �,� − |{ � → � ∈�}|0|{ � ∈�}|0��� 2,带有损失函数 � data ( �, � )。03.2.2. 第二步:泛化0本文的关键思想是将Eq.(4)概括为考虑使用惩罚函数的用户反馈数据。直观地,我们定义了一个新的目标函数,如 � data ( �, � ) + � ( �, � , � int ),其中 � ( �, � , � int ) 是与所有估计概率�,历史行程 � 和用户收集的反馈数据 � int相关的惩罚项。在实践中,我们提出了三种类型的修改方法。0交换 让我们用长度为4的序列 X = � � 1 , � 2 , � 3 , � 4 � 和 X ′ = � � 1 , � 3 , � 2 , � 4 �的例子来解释。对于 X 和 X ′,我们通过 Pr ( � ) < Pr ( � ′ ) 来编码关系 X � X′。通过我们的近似,我们有 � � 1 ,� 2 � � 2 ,� 3 � � 3 ,� 4 < � � 1 ,� 3 � � 3 ,� 2 � � 2 ,�4。然后,我们对每个4-元组 ( � 1 , � 2 , � 3 , � 4 ) 采用一个损失项 � swap ( � � 1 ,� 2 � � 2 ,� 3 � � 3 ,� 4 − � � 1 ,� 3 � � 3 ,� 2 � � 2 ,� 4 ),并将此项添加到我们在Eq.(4)中的学习问题中(另见图1中的交换)。0插入对于两个示例长度为3和4的行程X=��1,�2,�3�和X′=��1,�2,�4,�3�,插入由Pr(X)≤Pr(�′)编码。类似地,我们应该有��2,�3≤��2,�4��4,�3,并且损失函数�插入也被采用为惩罚项(也见图1中的Ins)。0删除相反,对于两个示例长度为4和3的行程X=��1,�2,�3,�4�和X′=��1,�3,�4�,我们也可以使用损失函数�删除(也见图1中的Del)。0总之,我们可以通过设计接口来收集数据集�交互,以及像上面的例子(�1,�2,�3,�4)这样的数据,用于修改转移概率��,�。在这里,我们定义一个新的目标函数来估计��,�,使用�和�交互:=�交换��插入��删除如下。0� := �×�数据(�,�)+ �10(�1,�2,�3,�4)∈�交换�交换(�1,�2,�3,�4)0+ �2×0(�2,�3,�4)∈�插入�插入(�2,�3,�40(�1,�2,�3)∈�删除�删除(�1,�2,�3)。0我们将�˜ := arg min��(�; �, �1, �2, �3)约束为∑����,�=1对于所有�∈[�]。03.2.3. 第3步:使用修改后的概率进行规划0计算等式(5)后,我们得到了�˜,而不是从等式(4)中得到的�^,我们期望�˜可以通过软约束反映所有来自�交互的交互信息。然后我们可以使用�˜而不是使用�^来获得不同的行程(例如,前�行程)。03.3. 我们的新优化问题如何修改转移矩阵0我们使用玩具示例来解释我们的框架。让我们准备�=10个合成位置,并使用��,�对于�,�∈[�]随机生成��,�=0。对于我们的损失函数,我们采用了(a) Random𝑃𝑋𝑖,𝑋𝑗(b) Modified𝑃˜ 𝑋𝑖,𝑋𝑗0(c)�−�˜的差异0� → �˜ neg(2,518)pos(2,522)0neg(2,349)1,988 361pos(2,691)530 2,1610(d)所有4元组的结果和转换0图2:等式(5)中我们的问题如何通过10个交互交换对和�=0.25,�1=16,�2=�3=0修改�为�˜0Frobenius范数用于�数据和等式(5)中的tanh函数,解释了我们提出的方法如何按预期工作作为交换操作的示例。我们首先准备一个随机转移矩阵,如图2a所示。我们随机选择了10个违反交换条件的元组(�1,�2,�3,�4)来构建�交换。这里,(�1,�2,�3,�4)如果��1,�2��2,�3��3,�4 <��1,�3��3,�2��2,�4,则为neg,否则为pos。我们假设用户说��1,�2,�3,�4����1,�3,�2,�4�。使用参数�=0.25,�1=16,�2=�3=0.0,我们计算了一个修改后的矩阵�˜(如图2b所示。�−�˜也显示在图2c中)。结果上,我们有2349个neg和2691个pos的�元组(即总共10P4=5040个元组),以及2518个neg和2522个pos的�˜元组。在2349个neg的�元组中,有1988个保持为neg,361个变为pos。同样,在2691个pos的�元组中,530个变为neg,而2161个也保持为pos,如图2d所总结。对于�交换,�˜满足了10个元组中的7个元组的条件。然后我们确认�交换中的10个交互样本轻微影响了�˜中的一个4元组子集。注意,对于�数据和�交换,其他损失函数也是适用的。04. 概念验证实验0我们演示了我们提出的框架如何使用爬取的真实数据。在接下来的实验中,我们保持我们的方法中的两个函数(Frobenius范数用于�数据和tanh用于�交换),并且专注于等式(5)中的交换操作。在本文中,我们仅评估收集的交互数据�交换如何影响计算出的行程排名列表。为了评估这一点,我们比较了多种设置下的结果列表,并进行了定量比较。0设置我们从TripHobo提取了用户生成的行程,并从TripAdvisor1中提取了评分数据。我们找到了标记有东京的行程,并收集了单个行程。行程由多天组成(即第1天,第2天等)。然后我们将多天行程分成一天的一组,以便专注于一天内的规划。我们收集了这样的一天行程,以形成整个历史数据集。从整个数据集中,我们只对东京的一个选定区域进行了抽样,名为浅草2,最终在我们的�中有245个行程。01https://www.triphobo.com/和https://www.tripadvisor.jp/(2022年6月确认访问。)2通过选择纬度[35.443674,35.825408]和经度[139.514896,139.927981]范围内的POI的位置。0(a)� ^0(b)第1个(�1)0(c)第2个(�2)0(d)第3个(�3)0(e)第4个(�4)0(f)第5个(�5)0(g)第1个(�2)0(h)第2个(�1)0(i)第3个(�6)0(j)第4个(�7)0(k)第5个(�8)0(l)�˜0(m)第1个(�9)0(n)第2个(�10)0(o)第3个(�11)0(p)第4个(�12)0(q)第5个(�13)0图3:图3a中的两个矩阵� ^和图3l中的�˜。使用� ^和� = 0(上面,从图3b到图3f),� ^和� =1(中间,从图3g到图3k),以及�˜和� = 0(底部,从图3m到图3q)得到的行程。0提取的行程,我们还收集了数据中所有POI的一组[�](� = 29)。对于每个poi � ∈[�],我们从TripAdvisor记录的星级中获得了Score(�)。我们实现了我们的top-�行程规划算法(如第2.3节中所述),设置� = 5,并测试了� = 1和�∈{0,1}。为了评估我们的方法,我们比较了由�^和�˜得到的前5条行程的列表。为了学习�˜,我们只是从neg 4元组中随机抽样了300对作为�swap的模拟数据。参数设置与第3.3节中的设置相同。0生成行程的可视化对于29个POI中的随机起点和目标POI,对于� ^对于� = 0和� =1的情况,基线方法总共生成了10条行程,如图3所示,我们有8条唯一的行程。使用图3中描述的标识符,当� ^和� = 0时,我们有�1 = ��1,�2,�3,�4,�5�,当� ^和� = 1时,我们有�2 =��2,�1,�6,�7,�8�。对于�˜和� = 0,图3说明了通过我们的框架生成的新行程,其中当�˜和� =0时,我们有一个新的列表�3 = ��9,�10,�11,�12,�13�。对于�˜和� = 1,我们有另一个列表�4 =��10,�9,�11,�13,�2�。请注意,�4未在图3中说明,因为�4中的行程已经在图3中说明。0评估为了评估行程的得分(∑��−1�=2∑���=2Score(�)��,�)和排名(即�1,�2和�3),我们首先测量每个行程的总得分和旅行成本。图4a显示了方程(2)的两个项的散点图;�轴显示了行程的总旅行距离,�轴表示行程获得的值。接下来,我们评估了�3不同大小的�swap。图4b显示了当neg样本数量增加时(对应于�轴,从0到500),前5个列表如何变化,其中�轴表示带有黑色0(a) 散点图(得分和成本)0(b)不同得分和样本大小的排名0图4:行程和排名的比较。图4a显示了得分和旅行成本之间的散点图。图4b显示了当�交换中的训练数据数量增加时,排名列表如何变化。0圆圈之间的线表示两个行程是相同的。结果中,图3、图4a和图4b表明我们可以通过我们的方法生成各种行程。换句话说,我们提出的方法基于交互数据使排名结果多样化。05. 结论0我们提出了一个新的框架,用户可以通过编辑显示的行程直接与我们的系统进行交互。我们的想法是通过用户的编辑收集丰富的反馈,并在生成个性化行程时利用这些数据。通过我们的概念验证实验,我们证实了我们的方法可以通过基于远足问题的顶级�行程生成多样化的排名。在我们的未来工作中,我们将更深入地研究基于交互数据的基于学习的方法,并计划进行定量用户研究,以开发类似于[2]的交互和基于优化的行程规划方法。0参考文献0[1] A. A. da Silva, R. Morabito, V. Pureza,优化方法支持旅行行程的规划和分析,应用专家系统112(2018)321-330。URL:https://www.sciencedirect.com/science/article/pii/S0957417418303920。doi: https://doi.org/10.1016/j.eswa.2018.06.045。0[2] M. De Choudhury, M. Feldman, S. Amer-Yahia, N. Golbandi, R. Lempel, C. Yu,使用社交面包屑自动生成旅行行程,第21届ACM超文本和超媒体会议论文集,HT'10,计算机协会,纽约,美国,2010年,第35-44页。0[3] K. H. Lim, J. Chan, C. Leckie, S. Karunasekera,基于用户兴趣和兴趣点访问持续时间的个性化旅游推荐,第24届国际人工智能会议论文集,IJCAI'15,AAAI出版社,布宜诺斯艾利斯,2015年,第1778-1784页。0[4] D. Chen, C. S. Ong, L. Xie,学习轨迹并推荐路径,第25届ACM国际信息与知识管理会议论文集,CIKM'16,计算机协会,纽约,美国,2016年,第2227-2232页。0[5] P. Vansteenwegen, W. Souffriau, D. Van Oudheusden,远足问题:一项调查,欧洲运筹学杂志209(2011)1-10。0[6] Z. Friggstad, S. Gollapudi, K. Kollias, T. Sarlos, C. Swamy, A. Tomkins,生成旅行行程的越野算法,第十一届ACM国际网络搜索和数据挖掘会议论文集,WSDM'18,计算机协会,纽约,美国,2018年,第180-188页。0[7] S. Basu Roy, G. Das, S. Amer-Yahia, C. Yu,交互式行程规划,2011年IEEE第27届国际数据工程会议,ICDE'11,IEEE计算机协会,美国,2011年,第15-26页。doi: 10.1109/ICDE.2011.5767920。0[8] R. Canoy, T. Guns,通过学习历史解决方案进行车辆路径规划,CP2019会议论文集,2019年,第54-70页。0[9] J. Mandi, R. Canoy, V. Bucarey, T. Guns,数据驱动的VRP:一种学习隐藏偏好的神经网络模型,CP2021会议论文集,2021年。0[10] C. E. Miller, A. W. Tucker, R. A. Zemlin,旅行推销员问题的整数规划公式,ACM期刊(JACM)7(1960)326-329。0[11] E. L. Lawler,计算离散优化问题的k个最佳解的方法及其在最短路径问题中的应用,管理科学18(1972)401-405。
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![application/x-rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)