dataset = pd.read_csv('2019.csv', delimiter=",") dataset = np.array(dataset) #转换为NumPy数组 m, n = np.shape(dataset) totalX = np.zeros((m-2161, 3)) #创建了一个大小为 (m-2161) x 3 的全零矩阵 totalY = np.zeros((m-2161, 1)) for i in range(m-2161): # 分组:1、721、1441作为输入,2161作为输出 totalX[i][0] = dataset[i][0] totalX[i][1] = dataset[i+720][0] totalX[i][2] = dataset[i+1440][0] totalY[i][0] = dataset[i+2160][0] # 归一化数据 Normal_totalX = np.zeros((m-2161, 3)) Normal_totalY = np.zeros((m-2161, 1)) nummin = np.min(dataset) nummax = np.max(dataset) dif = nummax - nummin for i in range(m-2161): for j in range(3): Normal_totalX[i][j] = (totalX[i][j]-nummin) / dif Normal_totalY[i][0] = (totalY[i][0]-nummin) / diftrain_mse= sess.run(mse, feed_dict={x: X, y_: Y})总训练次数: 100001 运行耗时(s): 72.54459370000001 测试集均方误差为: nan为什么为nan

时间: 2023-12-12 15:05:31 浏览: 75
测试集均方误差为 `nan` 可能有以下原因: 1. 数据集中存在缺失值或异常值,导致模型无法计算出准确的预测值。 2. 学习率可能过大或过小,导致模型无法收敛到最优解。 3. 网络结构设计不合理,导致模型无法学习到有效的特征。 您可以检查数据集是否存在缺失值或异常值,并尝试调整学习率或网络结构来解决这个问题。
相关问题

dataset = pd.read_csv('tem.csv', delimiter=",") grouped_df = dataset.groupby([dataset['month'], dataset['day']])['wind Speed'].mean() qw = grouped_df.loc[(12, slice(None))].round(1) dataset=np.array(qw) #转换为NumPy数组 m,n=np.shape(dataset)File "C:/Users/DELL/Desktop/python_flask-dc/python_flask/bpnn_tf.py", line 45, in <module> m,n=np.shape(dataset) ValueError: not enough values to unpack (expected 2, got 1)怎么改代码

根据错误提示,代码中的 `np.shape(dataset)` 函数返回的值只有一个,而你在代码中使用了两个变量进行接收,所以需要改为只接收一个变量。修改后的代码如下: ```python dataset = pd.read_csv('tem.csv', delimiter=",") grouped_df = dataset.groupby([dataset['month'], dataset['day']])['wind Speed'].mean() qw = grouped_df.loc[(12, slice(None))].round(1) dataset = np.array(qw) #转换为NumPy数组 m, n = np.shape(dataset) #这里只接收一个变量 ```

dataset = pd.read_csv('output3.csv', delimiter=",") dataset = np.array(dataset) # 转换为NumPy数组 m, n = np.shape(dataset) totalX = np.zeros((m - d, d)) # 创建了一个大小为 (m-d) x d 的全零矩阵 totalY = np.zeros((m - d, l)) for i in range(m - d): # 分组:前三个值输入,第四个值输出 totalX[i][0] = dataset[i][0] totalX[i][1] = dataset[i + 1][0] totalX[i][2] = dataset[i + 2][0] totalY[i][0] = dataset[i + 3][0] # 归一化数据 Normal_totalX = np.zeros((m - d, d)) Normal_totalY = np.zeros((m - d, l)) nummin = np.min(dataset) nummax = np.max(dataset)修改成前720个数据第一组,720-

根据您的要求,修改后的代码如下: ``` dataset = pd.read_csv('output3.csv', delimiter=",") dataset = np.array(dataset) # 转换为NumPy数组 m, n = np.shape(dataset) totalX = np.zeros((720, 3)) # 创建了一个大小为 720 x 3 的全零矩阵 totalY = np.zeros((720, 1)) for i in range(720): # 分组:前三个值输入,第四个值输出 totalX[i][0] = dataset[i][0] totalX[i][1] = dataset[i + 1][0] totalX[i][2] = dataset[i + 2][0] totalY[i][0] = dataset[i + 3][0] # 归一化数据 Normal_totalX = np.zeros((720, 3)) Normal_totalY = np.zeros((720, 1)) nummin = np.min(dataset[:720]) nummax = np.max(dataset[:720]) ``` 这段代码将前720个数据作为第一组输入和输出,然后进行归一化处理。注意在归一化时,只使用了前720个数据,而不是全部数据。
阅读全文

相关推荐

from keras.models import Sequential from keras.layers import Dense from sklearn.preprocessing import MinMaxScaler import numpy as np from sklearn.model_selection import train_test_split # 加载数据集,18列数据 dataset = np.loadtxt(r'D:\python-learn\asd.csv', delimiter=",",skiprows=1) # 划分数据, 使用17列数据来预测最后一列 X = dataset[:,0:17] y = dataset[:,17] # 归一化 scaler = MinMaxScaler(feature_range=(0, 1)) X = scaler.fit_transform(X) y = scaler.fit_transform(y.reshape(-1, 1)) # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建模型 model = Sequential() model.add(Dense(64, input_dim=17, activation='relu')) model.add(Dense(32, activation='relu')) model.add(Dense(16, activation='relu')) model.add(Dense(8, activation='relu')) model.add(Dense(1, activation='linear')) # 编译模型, 选择MSE作为损失函数 model.compile(loss='mse', optimizer='adam') # 训练模型, 迭代1000次 model.fit(X_train, y_train, epochs=300, batch_size=32) score= model.evaluate(X_train, y_train) print('Test loss:', score) # 评估神经网络模型 score= model.evaluate(X_test,y_test) print('Test loss:', score) # 预测结果 dataset = np.loadtxt(r'D:\python-learn\testdata.csv', delimiter=",",skiprows=1) X = dataset[:,0:17] scaler = MinMaxScaler(feature_range=(0, 1)) X = scaler.fit_transform(X) y = scaler.fit_transform(y.reshape(-1, 1)) # pred_Y = model.predict(X) print("Predicted value:", pred_Y) from sklearn.metrics import mean_squared_error, r2_score # y_true是真实值,y_pred是预测值 # 计算均方误差 y_true = dataset[:,-1] mse = mean_squared_error(y_true, pred_Y) # 计算决定系数 r2 = r2_score(y_true, pred_Y) # 输出均方误差和决定系数 print("均方误差: %.2f" % mse) print("决定系数: %.2f" % r2) import matplotlib.pyplot as plt plt.scatter(y_true, pred_Y) # 添加x轴标签 plt.xlabel('真实值') # 添加y轴标签 plt.ylabel('预测值') # 添加图标题 plt.title('真实值与预测值的散点图') # 显示图像 plt.show()请你优化一下这段代码,尤其是归一化和反归一化过程

import numpy as np def replacezeroes(data): min_nonzero = np.min(data[np.nonzero(data)]) data[data == 0] = min_nonzero return data # Change the line below, based on U file # Foundation users set it to 20, ESI users set it to 21 LINE = 20 def read_scalar(filename): # Read file file = open(filename, 'r') lines_1 = file.readlines() file.close() num_cells_internal = int(lines_1[LINE].strip('\n')) lines_1 = lines_1[LINE + 2:LINE + 2 + num_cells_internal] for i in range(len(lines_1)): lines_1[i] = lines_1[i].strip('\n') field = np.asarray(lines_1).astype('double').reshape(num_cells_internal, 1) field = replacezeroes(field) return field def read_vector(filename): # Only x,y components file = open(filename, 'r') lines_1 = file.readlines() file.close() num_cells_internal = int(lines_1[LINE].strip('\n')) lines_1 = lines_1[LINE + 2:LINE + 2 + num_cells_internal] for i in range(len(lines_1)): lines_1[i] = lines_1[i].strip('\n') lines_1[i] = lines_1[i].strip('(') lines_1[i] = lines_1[i].strip(')') lines_1[i] = lines_1[i].split() field = np.asarray(lines_1).astype('double')[:, :2] return field if __name__ == '__main__': print('Velocity reader file') heights = [2.0, 1.5, 0.5, 0.75, 1.75, 1.25] total_dataset = [] # Read Cases for i, h in enumerate(heights, start=1): U = read_vector(f'U_{i}') nut = read_scalar(f'nut_{i}') cx = read_scalar(f'cx_{i}') cy = read_scalar(f'cy_{i}') h = np.ones(shape=(np.shape(U)[0], 1), dtype='double') * h temp_dataset = np.concatenate((U, cx, cy, h, nut), axis=-1) total_dataset.append(temp_dataset) total_dataset = np.reshape(total_dataset, (-1, 6)) print(total_dataset.shape) # Save data np.save('Total_dataset.npy', total_dataset) # Save the statistics of the data means = np.mean(total_dataset, axis=0).reshape(1, np.shape(total_dataset)[1]) stds = np.std(total_dataset, axis=0).reshape(1, np.shape(total_dataset)[1]) # Concatenate op_data = np.concatenate((means, stds), axis=0) np.savetxt('means', op_data, delimiter=' ') # Need to write out in OpenFOAM rectangular matrix format print('Means:') print(means) print('Stds:') print(stds)解析python代码,说明读取的数据文件格式

import numpy as np import matplotlib.pyplot as plt from sklearn import svm from sklearn.datasets import make_blobs from sklearn import model_selection from sklearn.metrics import f1_score def show_svm(a, b, bt): plt.figure(bt) plt.title('SVM with ' + bt) # 建立图像坐标 axis = plt.gca() plt.scatter(a[:, 0], a[:, 1], c=b, s=30) xlim = [a[:, 0].min(), a[:, 0].max()] ylim = [a[:, 1].min(), a[:, 1].max()] # 生成两个等差数列 xx = np.linspace(xlim[0], xlim[1], 50) yy = np.linspace(ylim[0], ylim[1], 50) X, Y = np.meshgrid(xx, yy) xy = np.vstack([X.ravel(), Y.ravel()]).T Z = clf.decision_function(xy).reshape(X.shape) # 画出分界线 axis.contour(X, Y, Z, colors='k', levels=[-1, 0, 1], alpha=0.5, linestyles=['--', '-', '--']) axis.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=200, linewidths=1, facecolors='none') if __name__ == '__main__': # data = np.loadtxt('separable_data.txt', delimiter=',') # data = np.loadtxt('non_separable_data.txt', delimiter=',') # data = np.loadtxt('banknote.txt', delimiter=',') data = np.loadtxt('ionosphere.txt', delimiter=',') # data = np.loadtxt('wdbc.txt', delimiter=',') X = data[:, 0:-1] y = data[:, -1] """标签中有一类标签为1""" y = y + 1 ymin = min(y) if not (1 in set(y)): ll = max(list(set(y))) + 1 for i in range(len(y)): if y[i] == ymin: y[i] = 1 # 建立一个线性核(多项式核)的SVM clf = svm.SVC(kernel='linear') clf.fit(X, y) """显示所有数据用于训练后的可视化结果""" show_svm(X, y, 'all dataset') """divide the data into two sections: training and test datasets""" X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=0.1, random_state=42) """training""" clf = svm.SVC(kernel='linear')#线性内核 # clf = svm.SVC(kernel='poly')# 多项式内核 # clf = svm.SVC(kernel='sigmoid')# Sigmoid内核 clf.fit(X_train, y_train) # show_svm(X_train, y_train, 'training dataset') """predict""" pred = clf.predict(X_test) pred = np.array(pred) y_test = np.array(y_test) print(f'SVM 的预测结果 f1-score:{f1_score(y_test, pred)}') # plt.show()结果与分析

将下面这段代码改用python写出来: clear all; close all; fdir = '../dataset/iso/saii/'; %Reconstruction parameters depth_start = 710; depth_end = 720; depth_step = 1; pitch = 12; sensor_sizex = 24; focal_length = 8; lens_x = 4; lens_y = 4; %% import elemental image infile=[fdir '11.bmp']; outfile=[fdir, 'EIRC/']; mkdir(outfile); original_ei=uint8(imread(infile)); [v,h,d]=size(original_ei); %eny = v/lens_y; enx = h/lens_x; % Calculate real focal length %f_ratio=36/sensor_sizex; sensor_sizey = sensor_sizex * (v/h); %focal_length = focal_length*f_ratio; EI = zeros(v, h, d, lens_x * lens_y,'uint8'); for y = 1:lens_y for x = 1:lens_x temp=imread([fdir num2str(y),num2str(x),'.bmp']); EI(:, :, :, x + (y-1) * lens_y) = temp; end end %Reconstruction [EIy, EIx, Color] = size(EI(:,:,:,1)); %% EI_VCR time=[]; for Zr = depth_start:depth_step:depth_end tic; Shx = 8*round((EIx*pitch*focal_length)/(sensor_sizex*Zr)); Shy = 8*round((EIy*pitch*focal_length)/(sensor_sizey*Zr)); Img = (double(zeros(EIy+(lens_y-1)*Shy,EIx+(lens_x-1)*Shx, Color))); Intensity = (uint16(zeros(EIy+(lens_y-1)*Shy,EIx+(lens_x-1)*Shx, Color))); for y=1:lens_y for x=1:lens_x Img((y-1)*Shy+1:(y-1)*Shy+EIy,(x-1)*Shx+1:(x-1)*Shx+EIx,:) = Img((y-1)*Shy+1:(y-1)*Shy+EIy,(x-1)*Shx+1:(x-1)*Shx+EIx,:) + im2double(EI(:,:,:,x+(y-1)*lens_y)); Intensity((y-1)*Shy+1:(y-1)*Shy+EIy,(x-1)*Shx+1:(x-1)*Shx+EIx,:) = Intensity((y-1)*Shy+1:(y-1)*Shy+EIy,(x-1)*Shx+1:(x-1)*Shx+EIx,:) + uint16(ones(EIy,EIx,Color)); end end elapse=toc time=[time elapse]; display(['--------------- Z = ', num2str(Zr), ' is processed ---------------']); Fname = sprintf('EIRC/%dmm.png',Zr); imwrite(Img./double(Intensity), [fdir Fname]); end csvwrite([fdir 'EIRC/time.csv'],time);

最新推荐

recommend-type

【java毕业设计】小型企业办公自动化系统的设计和开发源码(ssm+vue+mysql+说明文档+LW).zip

小型企业办公自动化系统在Eclipse环境中,使用Java语言进行编码,使用Mysql创建数据表保存本系统产生的数据。系统可以提供信息显示和相应服务,其管理员管理部门经理,管理总经理,管理员工和员工留言以及员工工资,管理内部邮件,管理审批流程,管理离职申请。部门经理给员工发放工资,审核并回复员工留言,管理员工工资,审核员工的离职申请信息,查询和下载内部邮件以及审批流程。总经理查询下载内部邮件和审批流程,审核员工离职申请,查询员工工资,查询员工和部门经理。员工发布留言,发布内部邮件,发布离职申请,查询通知公告和审批流程,查看员工本人工资。 项目包含完整前后端源码和数据库文件 环境说明: 开发语言:Java 框架:ssm,mybatis JDK版本:JDK1.8 数据库:mysql 5.7 数据库工具:Navicat11 开发软件:eclipse/idea Maven包:Maven3.3 服务器:tomcat7
recommend-type

基于JAVA+SpringBoot+Vue+MySQL的智慧草莓基地管理系统 源码+数据库+论文(高分毕业设计).zip

项目已获导师指导并通过的高分毕业设计项目,可作为课程设计和期末大作业,下载即用无需修改,项目完整确保可以运行。 包含:项目源码、数据库脚本、软件工具等,该项目可以作为毕设、课程设计使用,前后端代码都在里面。 该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。 项目都经过严格调试,确保可以运行!可以放心下载 技术组成 语言:java 开发环境:idea 数据库:MySql8.0 部署环境:maven 数据库工具:navicat
recommend-type

基于Django的校园考试宝系统 期末项目:智慧校园考试宝 技术:基于Django框架,使用前后端分离,前端使用Vue,后端 使用Django+Python 亮点:考虑到课上所学知识不能及时掌握

基于Django的校园考试宝系统。期末项目:智慧校园考试宝 技术:基于Django框架,使用前后端分离,前端使用Vue,后端 使用Django+Python 亮点:考虑到课上所学知识不能及时掌握,通过题目进一步巩固,反复练习
recommend-type

WordPress作为新闻管理面板的实现指南

资源摘要信息: "使用WordPress作为管理面板" WordPress,作为当今最流行的开源内容管理系统(CMS),除了用于搭建网站、博客外,还可以作为一个功能强大的后台管理面板。本示例展示了如何利用WordPress的后端功能来管理新闻或帖子,将WordPress用作组织和发布内容的管理面板。 首先,需要了解WordPress的基本架构,包括它的数据库结构和如何通过主题和插件进行扩展。WordPress的核心功能已经包括文章(帖子)、页面、评论、分类和标签的管理,这些都可以通过其自带的仪表板进行管理。 在本示例中,WordPress被用作一个独立的后台管理面板来管理新闻或帖子。这种方法的好处是,WordPress的用户界面(UI)友好且功能全面,能够帮助不熟悉技术的用户轻松管理内容。WordPress的主题系统允许用户更改外观,而插件架构则可以扩展额外的功能,比如表单生成、数据分析等。 实施该方法的步骤可能包括: 1. 安装WordPress:按照标准流程在指定目录下安装WordPress。 2. 数据库配置:需要修改WordPress的配置文件(wp-config.php),将数据库连接信息替换为当前系统的数据库信息。 3. 插件选择与定制:可能需要安装特定插件来增强内容管理的功能,或者对现有的插件进行定制以满足特定需求。 4. 主题定制:选择一个适合的WordPress主题或者对现有主题进行定制,以实现所需的视觉和布局效果。 5. 后端访问安全:由于将WordPress用于管理面板,需要考虑安全性设置,如设置强密码、使用安全插件等。 值得一提的是,虽然WordPress已经内置了丰富的管理功能,但在企业级应用中,还需要考虑性能优化、安全性增强、用户权限管理等方面。此外,由于WordPress主要是作为内容发布平台设计的,将其作为管理面板可能需要一定的定制工作以确保满足特定的业务需求。 【PHP】标签意味着在实现该示例时,需要使用PHP编程语言。WordPress本身是由PHP语言开发的,因此开发者可能需要具备PHP开发能力,或至少能够理解PHP代码基础,以便对WordPress进行定制和扩展。 最后,【压缩包子文件的文件名称列表】中的"dctb-wp-as-admin-panel-master"暗示了这是一个存放所有相关文件的主目录,包括源代码、配置文件、模板文件、资源文件等,这些文件是安装和运行WordPress管理面板所必需的。在实际部署时,开发者需要上传这些文件到服务器,按照文档说明进行配置和安装。 总之,本示例提供了一个通过WordPress来搭建一个简单新闻或帖子管理系统的思路,展示了如何利用现有的开源工具来实现特定的业务需求。开发者需要有相应的PHP和WordPress知识,以及对网络安全和性能优化的基本了解。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

函数与模块化编程宝典:J750编程高效之路

![函数与模块化编程宝典:J750编程高效之路](https://github.blog/wp-content/uploads/2021/12/python-intermediate-update.png?resize=1024%2C494) 参考资源链接:[泰瑞达J750设备编程基础教程](https://wenku.csdn.net/doc/6412b472be7fbd1778d3f9e1?spm=1055.2635.3001.10343) # 1. 函数与模块化编程基础 ## 1.1 编程中的函数基础 函数是编程的基础构件,它允许将代码块组织成可重复使用的组件。在函数中封装特定的逻辑
recommend-type

用C语言求有4个圆塔,圆心分别为(2,2),(2,-2),(-2,2),(-2,-2)圆半径为1, 这4个塔的高度为10m 塔以外无建筑物接输入任意点的坐标 求该点的建筑高度(塔外的高度为零)的程序

在C语言中,你可以编写一个简单的函数来解决这个问题。首先,你需要确定每个圆是否包含了给定的点。如果包含,则返回塔高10米,如果不包含则返回0。这里提供一个基本的伪代码思路: ```c #include <stdio.h> #include <math.h> // 定义圆的结构体 typedef struct { double x, y; // 圆心坐标 int radius; // 半径 } Circle; // 函数判断点是否在圆内 int is_point_in_circle(Circle circle, double px, double py) { d
recommend-type

NPC_Generator:使用Ruby打造的游戏角色生成器

资源摘要信息:"NPC_Generator是一个专门为角色扮演游戏(RPG)或模拟类游戏设计的角色生成工具,它允许游戏开发者或者爱好者快速创建非玩家角色(NPC)并赋予它们丰富的背景故事、外观特征以及可能的行为模式。NPC_Generator的开发使用了Ruby编程语言,Ruby以其简洁的语法和强大的编程能力在脚本编写和小型项目开发中十分受欢迎。利用Ruby编写的NPC_Generator可以集成到游戏开发流程中,实现自动化生成NPC,极大地节省了手动设计每个NPC的时间和精力,提升了游戏内容的丰富性和多样性。" 知识点详细说明: 1. NPC_Generator的用途: NPC_Generator是用于游戏角色生成的工具,它能够帮助游戏设计师和玩家创建大量的非玩家角色(Non-Player Characters,简称NPC)。在RPG或模拟类游戏中,NPC是指在游戏中由计算机控制的虚拟角色,它们与玩家角色互动,为游戏世界增添真实感。 2. NPC生成的关键要素: - 角色背景故事:每个NPC都应该有自己的故事背景,这些故事可以是关于它们的过去,它们为什么会在游戏中出现,以及它们的个性和动机等。 - 外观特征:NPC的外观包括性别、年龄、种族、服装、发型等,这些特征可以由工具随机生成或者由设计师自定义。 - 行为模式:NPC的行为模式决定了它们在游戏中的行为方式,比如友好、中立或敌对,以及它们可能会执行的任务或对话。 3. Ruby编程语言的优势: - 简洁的语法:Ruby语言的语法非常接近英语,使得编写和阅读代码都变得更加容易和直观。 - 灵活性和表达性:Ruby语言提供的大量内置函数和库使得开发者可以快速实现复杂的功能。 - 开源和社区支持:Ruby是一个开源项目,有着庞大的开发者社区和丰富的学习资源,有利于项目的开发和维护。 4. 项目集成与自动化: NPC_Generator的自动化特性意味着它可以与游戏引擎或开发环境集成,为游戏提供即时的角色生成服务。自动化不仅可以提高生成NPC的效率,还可以确保游戏中每个NPC都具备独特的特性,使游戏世界更加多元和真实。 5. 游戏开发的影响: NPC_Generator的引入对游戏开发产生以下影响: - 提高效率:通过自动化的角色生成,游戏开发团队可以节约大量时间和资源,专注于游戏设计的其他方面。 - 增加多样性:自动化的工具可以根据不同的参数生成大量不同的NPC,为游戏世界带来更多的故事线和交互可能性。 - 玩家体验:丰富的NPC角色能够提升玩家的沉浸感,使得玩家在游戏中的体验更加真实和有吸引力。 6. Ruby在游戏开发中的应用: 虽然Ruby不是游戏开发中最常用的编程语言,但其在小型项目、原型设计、脚本编写等领域有其独特的优势。一些游戏开发工具和框架支持Ruby,如Ruby on Rails可以在Web游戏开发中发挥作用,而一些游戏开发社区也在探索Ruby的更多潜力。 7. NPC_Generator的扩展性和维护: 为了确保NPC_Generator能够长期有效地工作,它需要具备良好的扩展性和维护性。这意味着工具应该支持插件或模块的添加,允许社区贡献新功能,并且代码应该易于阅读和修改,以便于未来的升级和优化。 综上所述,NPC_Generator是一款利用Ruby编程语言开发的高效角色生成工具,它不仅提高了游戏开发的效率,而且通过提供丰富多样的NPC角色增加了游戏的深度和吸引力。随着游戏开发的不断发展,此类自动化工具将变得更加重要,而Ruby作为一种支持快速开发的编程语言,在这一领域有着重要的应用前景。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

流程控制与循环结构详解:J750编程逻辑构建指南

![流程控制与循环结构详解:J750编程逻辑构建指南](https://d1g9li960vagp7.cloudfront.net/wp-content/uploads/2018/10/While-Schleife_WP_04-1024x576.png) 参考资源链接:[泰瑞达J750设备编程基础教程](https://wenku.csdn.net/doc/6412b472be7fbd1778d3f9e1?spm=1055.2635.3001.10343) # 1. 流程控制与循环结构的编程基础 编程中,流程控制和循环结构是构建有效程序逻辑的核心元素。本章将带你从基础概念出发,逐步深入理解