img_bw_sg = img_bw[ c_ind[0]:c_ind[-1],r_ind[0]:r_ind[-1]] ~~~~~^^^ IndexError: list index out of range的原因是什么

时间: 2024-09-28 22:10:35 浏览: 27
在Python中,`IndexError: list index out of range`这个错误通常是当你试图访问列表元素,但是提供的索引超出了列表的实际长度范围。在这个代码片段中: ```python img_bw_sg = img_bw[c_ind[0]:c_ind[-1], r_ind[0]:r_ind[-1]] ``` 变量`c_ind`和`r_ind`可能是两个用于切片`img_bw`图像的索引列表,分别对应列索引(column indices)和行索引(row indices)。如果`c_ind[-1]`或`r_ind[-1]`对应的值比列表本身的长度还要大,那么就会引发这个错误,因为它们尝试访问不存在的列表项。 例如,如果`c_ind`是一个只有一个元素的列表,而`c_ind[-1]`会返回列表的最后一个元素,如果这个元素大于实际图像的列数,就会出错。同样地,如果`r_ind`也遇到类似的问题,就可能导致整体的切片超出边界。 要解决这个问题,你需要检查`c_ind`和`r_ind`的长度是否合适,以及它们的最后一个元素是否在图像的有效范围内。可以添加条件判断或者确保索引操作之前对列表的长度进行了适当的校验。
相关问题

clear f = @(x,y) 20 + x.^2 + y.^2 - 10*cos(2*pi.*x) - 10*cos(2*pi.*y) ; x0 = [-5.12:0.05:5.12]; y0 = x0 ; [X,Y] = meshgrid(x0,y0); Z =f(X,Y) ; figure(1); mesh(X,Y,Z); colormap(parula(5)); n = 10; narvs = 2; c1 = 0.6; c2 = 0.6; w_max = 0.9; w_min = 0.4; K = 100; vmax = 1.2; x_lb = -5.12; x_ub = 5.12; x = zeros(n,narvs); x = x_lb + (x_ub-x_lb).*rand(n,narvs) v = -vmax + 2*vmax .* rand(n,narvs); fit = zeros(n,1); for i = 1:n fit(i) = Obj_fun1(x(i,:)); end pbest = x; ind = find(fit == max(fit), 1); gbest = x(ind,:); h = scatter(x,fit,80,'*r'); fitnessbest = ones(K,1); for d = 1:K for i = 1:n f_i = fit(i); f_avg = sum(fit)/n; f_max = max(fit); if f_i >= f_avg if f_avg ~= f_max w = w_min + (w_max - w_min)*(f_max - f_i)/(f_max - f_avg); else w = w_max; end else w = w_max; end v(i,:) = w*v(i,:) + c1*rand(1)*(pbest(i,:) - x(i,:)) + c2*rand(1)*(gbest - x(i,:)); for j = 1: narvs if v(i,j) < -vmax(j) v(i,j) = -vmax(j); elseif v(i,j) > vmax(j) v(i,j) = vmax(j); end end x(i,:) = x(i,:) + v(i,:); for j = 1: narvs if x(i,j) < x_lb(j) x(i,j) = x_lb(j); elseif x(i,j) > x_ub(j) x(i,j) = x_ub(j); end end fit(i) = Obj_fun1(x(i,:)); if fit(i) > Obj_fun1(pbest(i,:)) pbest(i,:) = x(i,:); end if fit(i) > Obj_fun1(gbest) gbest = pbest(i,:); end end fitnessbest(d) = Obj_fun1(gbest); pause(0.1) h.XData = x; h.YData = fit; end figure(2) plot(fitnessbest) xlabel('迭代次数'); disp('最佳的位置是:'); disp(gbest) disp('此时最优值是:'); disp(Obj_fun1(gbest)) function y = Obj_fun1(x) y = 7*cos(5*x) + 4*sin(x); end

代码中有两处错误: 1. 在初始化 x 变量时,应该使用矩阵赋值,而不是两次赋值。修改后的代码如下: ``` x = x_lb + (x_ub-x_lb).*rand(n,narvs); ``` 2. 在迭代更新速度时,应该将速度限制在 [-vmax, vmax] 的范围内。修改后的代码如下: ``` for j = 1: narvs if v(i,j) < -vmax v(i,j) = -vmax; elseif v(i,j) > vmax v(i,j) = vmax; end end ``` 修改后的完整代码如下: ``` clear f = @(x,y) 20 + x.^2 + y.^2 - 10*cos(2*pi.*x) - 10*cos(2*pi.*y); x0 = [-5.12:0.05:5.12]; y0 = x0; [X,Y] = meshgrid(x0,y0); Z = f(X,Y); figure(1); mesh(X,Y,Z); colormap(parula(5)); n = 10; narvs = 2; c1 = 0.6; c2 = 0.6; w_max = 0.9; w_min = 0.4; K = 100; vmax = 1.2; x_lb = -5.12; x_ub = 5.12; x = x_lb + (x_ub-x_lb).*rand(n,narvs); v = -vmax + 2*vmax .* rand(n,narvs); fit = zeros(n,1); for i = 1:n fit(i) = Obj_fun1(x(i,:)); end pbest = x; ind = find(fit == max(fit), 1); gbest = x(ind,:); h = scatter(x(:,1),x(:,2),80,'*r'); fitnessbest = ones(K,1); for d = 1:K for i = 1:n f_i = fit(i); f_avg = sum(fit)/n; f_max = max(fit); if f_i >= f_avg if f_avg ~= f_max w = w_min + (w_max - w_min)*(f_max - f_i)/(f_max - f_avg); else w = w_max; end else w = w_max; end v(i,:) = w*v(i,:) + c1*rand(1)*(pbest(i,:) - x(i,:)) + c2*rand(1)*(gbest - x(i,:)); for j = 1: narvs if v(i,j) < -vmax v(i,j) = -vmax; elseif v(i,j) > vmax v(i,j) = vmax; end end x(i,:) = x(i,:) + v(i,:); for j = 1: narvs if x(i,j) < x_lb x(i,j) = x_lb; elseif x(i,j) > x_ub x(i,j) = x_ub; end end fit(i) = Obj_fun1(x(i,:)); if fit(i) > Obj_fun1(pbest(i,:)) pbest(i,:) = x(i,:); end if fit(i) > Obj_fun1(gbest) gbest = pbest(i,:); end end fitnessbest(d) = Obj_fun1(gbest); pause(0.1) h.XData = x(:,1); h.YData = x(:,2); end figure(2) plot(fitnessbest) xlabel('迭代次数'); disp('最佳的位置是:'); disp(gbest) disp('此时最优值是:'); disp(Obj_fun1(gbest)) function y = Obj_fun1(x) y = 7*cos(5*x) + 4*sin(x); end ```

解释如下代码: for pic_id1 in range(1,N_pic+1): print('matching ' + set_name +': ' +str(pic_id1).zfill(5)) N_CHANGE = 0 for T_id in range(1,16,3): for H_id in range(2,5): FAIL_CORNER = 0 data_mat1 = read_data(input_file,pic_id1,T_id,H_id) search_list = range( max((pic_id1-10),1),pic_id1)+ range(pic_id1+1, min((pic_id1 + 16),N_pic + 1 ) ) for cor_ind in range(0,N_cor): row_cent1 = cor_row_center[cor_ind] col_cent1 = cor_col_center[cor_ind] img_corner = data_mat1[(row_cent1-N_pad): (row_cent1+N_pad+1), (col_cent1-N_pad): (col_cent1+N_pad+1) ] if ((len(np.unique(img_corner))) >2)&(np.sum(img_corner ==1)< 0.8*(N_pad2+1)**2) : for pic_id2 in search_list: data_mat2 = read_data(input_file,pic_id2,T_id,H_id) match_result = cv2_based(data_mat2,img_corner) if len(match_result[0]) ==1: row_cent2 = match_result[0][0]+ N_pad col_cent2 = match_result[1][0]+ N_pad N_LEF = min( row_cent1 , row_cent2) N_TOP = min( col_cent1, col_cent2 ) N_RIG = min( L_img-1-row_cent1 , L_img-1-row_cent2) N_BOT = min( L_img-1-col_cent1 , L_img-1-col_cent2) IMG_CHECK1 = data_mat1[(row_cent1-N_LEF): (row_cent1+N_RIG+1), (col_cent1-N_TOP): (col_cent1+N_BOT+1) ] IMG_CHECK2 = data_mat2[(row_cent2-N_LEF): (row_cent2+N_RIG+1), (col_cent2-N_TOP): (col_cent2+N_BOT+1) ] if np.array_equal(IMG_CHECK1,IMG_CHECK2) : check_row_N = IMG_CHECK1.shape[0] check_col_N = IMG_CHECK1.shape[1] if (check_col_Ncheck_row_N>=25): match_all.append( (pic_id1, row_cent1, col_cent1, pic_id2 , row_cent2, col_cent2) ) search_list.remove(pic_id2) else: FAIL_CORNER = FAIL_CORNER +1 N_CHANGE = N_CHANGE + 1 #%% break if less than 1 useless corners, or have detected more than 10 images from 60 if(FAIL_CORNER <= 1): break match_all_pd = pd.DataFrame(match_all,columns = ['pic_id1','row_id1','col_id1','pic_id2','row_id2','col_id2']) pd_add = pd.DataFrame(np.arange(1,N_pic+1), columns = ['pic_id1']) pd_add['pic_id2'] = pd_add['pic_id1'] pd_add['row_id1'] = 0 pd_add['row_id2'] = 0 pd_add['col_id1'] = 0 pd_add['col_id2'] = 0 match_all_pd = pd.concat([match_all_pd,pd_add]) match_all_pd.index = np.arange(len(match_all_pd))

这段代码是一个图像匹配的算法,其主要功能是在一个图像序列中找到相互匹配的图像对。以下是代码的主要流程: 1. 对于每张图像,用read_data()函数读取图像数据,并依次对每个角点进行匹配。 2. 对于每个角点,提取其周围的图像块,并检查图像块的像素值是否合适。 3. 在当前图像的前10张和后15张图像中搜索匹配图像,并用cv2_based()函数进行匹配。 4. 如果找到匹配图像,则计算两个图像块之间的偏移量,并用该偏移量对匹配图像进行校准。 5. 如果两个图像块相似,则将它们标记为匹配,并将匹配结果添加到match_all列表中。 6. 最后,将匹配结果存储在一个名为match_all_pd的pandas数据框中,并返回该数据框。 整个算法的核心是cv2_based()函数,它使用OpenCV中的模板匹配算法来计算两个图像块之间的偏移量。此外,该算法还使用了pandas数据框来保存匹配结果,以方便后续的分析和可视化。
阅读全文

相关推荐

In file included from /home/yhdr/2-test-2023-06_v3/sent.h:24:0, from /home/yhdr/2-test-2023-06_v3/sent.cpp:1: /usr/include/c++/7/thread: In instantiation of ‘struct std::thread::_Invoker<std::tuple<void (*)(double*, double&, double&, double&, double&, double&), double**, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double> > >’: /usr/include/c++/7/thread:127:22: required from ‘std::thread::thread(_Callable&&, _Args&& ...) [with _Callable = void (&)(double*, double&, double&, double&, double&, double&); _Args = {double**, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>}]’ /home/yhdr/2-test-2023-06_v3/sent.cpp:18:153: required from here /usr/include/c++/7/thread:240:2: error: no matching function for call to ‘std::thread::_Invoker<std::tuple<void (*)(double*, double&, double&, double&, double&, double&), double**, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double> > >::_M_invoke(std::thread::_Invoker<std::tuple<void (*)(double*, double&, double&, double&, double&, double&), double**, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double> > >::_Indices)’ operator()() ^~~~~~~~ /usr/include/c++/7/thread:231:4: note: candidate: template<long unsigned int ..._Ind> decltype (std::__invoke((_S_declval<_Ind>)()...)) std::thread::_Invoker<_Tuple>::_M_invoke(std::_Index_tuple<_Ind ...>) [with long unsigned int ..._Ind = {_Ind ...}; _Tuple = std::tuple<void (*)(double*, double&, double&, double&, double&, double&), double**, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double>, std::reference_wrapper<double> >] _M_invoke(_Index_tuple<_Ind...>)

分析这个代码class OhemCrossEntropy(nn.Module): def __init__(self, ignore_label=-1, thres=0.7, min_kept=100000, weight=None): super(OhemCrossEntropy, self).__init__() self.thresh = thres self.min_kept = max(1, min_kept) self.ignore_label = ignore_label self.criterion = nn.CrossEntropyLoss( weight=weight, ignore_index=ignore_label, reduction='none' ) def _ce_forward(self, score, target): ph, pw = score.size(2), score.size(3) h, w = target.size(1), target.size(2) if ph != h or pw != w: score = F.interpolate(input=score, size=( h, w), mode='bilinear', align_corners=config.MODEL.ALIGN_CORNERS) loss = self.criterion(score, target) return loss def _ohem_forward(self, score, target, **kwargs): ph, pw = score.size(2), score.size(3) h, w = target.size(1), target.size(2) if ph != h or pw != w: score = F.interpolate(input=score, size=( h, w), mode='bilinear', align_corners=config.MODEL.ALIGN_CORNERS) pred = F.softmax(score, dim=1) pixel_losses = self.criterion(score, target).contiguous().view(-1) mask = target.contiguous().view(-1) != self.ignore_label tmp_target = target.clone() tmp_target[tmp_target == self.ignore_label] = 0 pred = pred.gather(1, tmp_target.unsqueeze(1)) pred, ind = pred.contiguous().view(-1,)[mask].contiguous().sort() min_value = pred[min(self.min_kept, pred.numel() - 1)] threshold = max(min_value, self.thresh) pixel_losses = pixel_losses[mask][ind] pixel_losses = pixel_losses[pred < threshold] return pixel_losses.mean() def forward(self, score, target): if config.MODEL.NUM_OUTPUTS == 1: score = [score] weights = config.LOSS.BALANCE_WEIGHTS assert len(weights) == len(score) functions = [self._ce_forward] * \ (len(weights) - 1) + [self._ohem_forward] return sum([ w * func(x, target) for (w, x, func) in zip(weights, score, functions) ])

最新推荐

recommend-type

Mysql中FIND_IN_SET()和IN区别简析

如果 `str` 在 `strlist` 中,函数返回 `str` 的位置(从1开始计数),否则返回0。如果 `strlist` 为空字符串,函数也返回0。需要注意的是,`FIND_IN_SET()` 不会利用索引来提高查询效率,尤其是在处理大量数据时,...
recommend-type

pandas中read_csv的缺失值处理方式

1. **默认行为**:Pandas有一组默认的缺失值标识符,包括但不限于`-1.#IND`, `1.#QNAN`, `1.#IND`, `-1.#QNAN`, `#N/A N/A`, `#N/A`, `N/A`, `NA`, `#NA`, `NULL`, `NaN`, `-NaN`, `nan`, `-nan`, 和空字符串('')...
recommend-type

polylearn-0.1.dev0-cp35-cp35m-win32.whl.rar

python whl离线安装包 pip安装失败可以尝试使用whl离线安装包安装 第一步 下载whl文件,注意需要与python版本配套 python版本号、32位64位、arm或amd64均有区别 第二步 使用pip install XXXXX.whl 命令安装,如果whl路径不在cmd窗口当前目录下,需要带上路径 WHL文件是以Wheel格式保存的Python安装包, Wheel是Python发行版的标准内置包格式。 在本质上是一个压缩包,WHL文件中包含了Python安装的py文件和元数据,以及经过编译的pyd文件, 这样就使得它可以在不具备编译环境的条件下,安装适合自己python版本的库文件。 如果要查看WHL文件的内容,可以把.whl后缀名改成.zip,使用解压软件(如WinRAR、WinZIP)解压打开即可查看。 为什么会用到whl文件来安装python库文件呢? 在python的使用过程中,我们免不了要经常通过pip来安装自己所需要的包, 大部分的包基本都能正常安装,但是总会遇到有那么一些包因为各种各样的问题导致安装不了的。 这时我们就可以通过尝试去Python安装包大全中(whl包下载)下载whl包来安装解决问题。
recommend-type

基于Simulink的语音信号降噪与增强.docx

基于Simulink的语音信号降噪与增强.docx
recommend-type

SSM Java项目:StudentInfo 数据管理与可视化分析

资源摘要信息:"StudentInfo 2.zip文件是一个压缩包,包含了多种数据可视化和数据分析相关的文件和代码。根据描述,此压缩包中包含了实现人员信息管理系统的增删改查功能,以及生成饼图、柱状图、热词云图和进行Python情感分析的代码或脚本。项目使用了SSM框架,SSM是Spring、SpringMVC和MyBatis三个框架整合的简称,主要应用于Java语言开发的Web应用程序中。 ### 人员增删改查 人员增删改查是数据库操作中的基本功能,通常对应于CRUD(Create, Retrieve, Update, Delete)操作。具体到本项目中,这意味着实现了以下功能: - 增加(Create):可以向数据库中添加新的人员信息记录。 - 查询(Retrieve):可以检索数据库中的人员信息,可能包括基本的查找和复杂的条件搜索。 - 更新(Update):可以修改已存在的人员信息。 - 删除(Delete):可以从数据库中移除特定的人员信息。 实现这些功能通常需要编写相应的后端代码,比如使用Java语言编写服务接口,然后通过SSM框架与数据库进行交互。 ### 数据可视化 数据可视化部分包括了生成饼图、柱状图和热词云图的功能。这些图形工具可以直观地展示数据信息,帮助用户更好地理解和分析数据。具体来说: - 饼图:用于展示分类数据的比例关系,可以清晰地显示每类数据占总体数据的比例大小。 - 柱状图:用于比较不同类别的数值大小,适合用来展示时间序列数据或者不同组别之间的对比。 - 热词云图:通常用于文本数据中,通过字体大小表示关键词出现的频率,用以直观地展示文本中频繁出现的词汇。 这些图表的生成可能涉及到前端技术,如JavaScript图表库(例如ECharts、Highcharts等)配合后端数据处理实现。 ### Python情感分析 情感分析是自然语言处理(NLP)的一个重要应用,主要目的是判断文本的情感倾向,如正面、负面或中立。在这个项目中,Python情感分析可能涉及到以下几个步骤: - 文本数据的获取和预处理。 - 应用机器学习模型或深度学习模型对预处理后的文本进行分类。 - 输出情感分析的结果。 Python是实现情感分析的常用语言,因为有诸如NLTK、TextBlob、scikit-learn和TensorFlow等成熟的库和框架支持相关算法的实现。 ### IJ项目与readme文档 "IJ项目"可能是指IntelliJ IDEA项目,IntelliJ IDEA是Java开发者广泛使用的集成开发环境(IDE),支持SSM框架。readme文档通常包含项目的安装指南、运行步骤、功能描述、开发团队和联系方式等信息,是项目入门和理解项目结构的首要参考。 ### 总结 "StudentInfo 2.zip"是一个综合性的项目,涉及到后端开发、前端展示、数据分析及自然语言处理等多个技术领域。通过这个项目,可以学习到如何使用SSM框架进行Web应用开发、实现数据可视化和进行基于Python的情感分析。这对于想要掌握Java Web开发和数据处理能力的学习者来说是一个很好的实践机会。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

负载均衡技术深入解析:确保高可用性的网络服务策略

![负载均衡技术深入解析:确保高可用性的网络服务策略](https://media.geeksforgeeks.org/wp-content/uploads/20240130183502/Source-IP-hash--(1).webp) # 1. 负载均衡技术概述 ## 1.1 负载均衡技术的重要性 在现代信息技术不断发展的今天,互联网应用的规模和服务的复杂性日益增长。因此,为了确保高性能、高可用性和扩展性,负载均衡技术变得至关重要。它能够有效地分配和管理网络或应用程序的流量,使得服务器和网络资源得以最优利用。 ## 1.2 负载均衡技术的基本概念 负载均衡是一种网络流量管理技术,旨
recommend-type

怎么解决头文件重复包含

解决头文件重复包含的问题主要有以下几个策略: 1. **包含 guards**:在头文件开头添加一种特殊的标识符(通常是宏),如 `#ifndef` 和 `#define` 对组合,检查某个特定宏是否已经定义过。如果没有定义,则包含内容,然后设置该宏。如果在同一文件内再次包含,由于宏已经存在,就不会再执行包含的内容,从而避免重复。 ```cpp #ifndef HEADER_NAME_H_ #define HEADER_NAME_H_ // 内容... #endif // HEADER_NAME_H_ ``` 2. **使用 extern 关键字**:对于非静态变量和函数,可以将它们
recommend-type

pyedgar:Python库简化EDGAR数据交互与文档下载

资源摘要信息:"pyedgar:用于与EDGAR交互的Python库" 知识点说明: 1. pyedgar库概述: pyedgar是一个Python编程语言下的开源库,专门用于与美国证券交易委员会(SEC)的电子数据获取、访问和检索(EDGAR)系统进行交互。通过该库,用户可以方便地下载和处理EDGAR系统中公开提供的财务报告和公司文件。 2. EDGAR系统介绍: EDGAR系统是一个自动化系统,它收集、处理、验证和发布美国证券交易委员会(SEC)要求的公司和其他机构提交的各种文件。EDGAR数据库包含了美国上市公司的详细财务报告,包括季度和年度报告、委托声明和其他相关文件。 3. pyedgar库的主要功能: 该库通过提供两个主要接口:文件(.py)和索引,实现了对EDGAR数据的基本操作。文件接口允许用户通过特定的标识符来下载和交互EDGAR表单。索引接口可能提供了对EDGAR数据库索引的访问,以便快速定位和获取数据。 4. pyedgar库的使用示例: 在描述中给出了一个简单的使用pyedgar库的例子,展示了如何通过Filing类与EDGAR表单进行交互。首先需要从pyedgar模块中导入Filing类,然后创建一个Filing实例,其中第一个参数(20)可能代表了提交年份的最后两位,第二个参数是一个特定的提交号码。创建实例后,可以打印实例来查看EDGAR接口的返回对象,通过打印实例的属性如'type',可以获取文件的具体类型(例如10-K),这代表了公司提交的年度报告。 5. Python语言的应用: pyedgar库的开发和应用表明了Python语言在数据分析、数据获取和自动化处理方面的强大能力。Python的简洁语法和丰富的第三方库使得开发者能够快速构建工具以处理复杂的数据任务。 6. 压缩包子文件信息: 文件名称列表中的“pyedgar-master”表明该库可能以压缩包的形式提供源代码和相关文件。文件列表中的“master”通常指代主分支或主版本,在软件开发中,主分支通常包含了最新的代码和功能。 7. 编程实践建议: 在使用pyedgar库之前,建议先阅读官方文档,了解其详细的安装、配置和使用指南。此外,进行编程实践时,应当注意遵守SEC的使用条款,确保只下载和使用公开提供的数据。 8. EDGAR数据的应用场景: EDGAR数据广泛应用于金融分析、市场研究、合规性检查、学术研究等领域。通过编程访问EDGAR数据可以让用户快速获取到一手的财务和公司运营信息,从而做出更加明智的决策。 9. Python库的维护和更新: 随着EDGAR数据库内容的持续更新和变化,pyedgar库也应定期进行维护和更新,以保证与EDGAR系统的接口兼容性。开发者社区对于这类开源项目的支持和贡献也非常重要。 10. 注意事项: 在使用pyedgar库下载和处理数据时,用户应当确保遵守相应的法律法规,尤其是关于数据版权和隐私方面的规定。此外,用户在处理敏感数据时,还需要考虑数据安全和隐私保护的问题。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依