train_data = single(permute(reshape(train.data',32,32,3,[]),[2 1 3 4]));什么意思

时间: 2024-05-25 12:16:38 浏览: 107
这行代码将原始的训练数据进行了一些变换,具体解释如下: 1. `train.data'`:将原始训练数据的转置,变成每一行对应一张图片的像素值; 2. `reshape(...,32,32,3,[])`:将上一步得到的向量重新变形成一个四维数组,每个元素对应一张图片,维度为`(32,32,3,图片数量)`,其中`(32,32,3)`表示每张图片的长宽和通道数,`[]`表示最后一维由其他维度自动计算得出; 3. `permute(...,[2 1 3 4])`:将上一步得到的四维数组进行维度置换,将第1维和第2维交换,变成`(32,32,3,图片数量)`的形式。 4. `single(...)`:将上一步得到的数组转换成单精度浮点数类型,以便后续计算。
相关问题

train_data = single(permute(reshape(train.data',32,32,3,[]),[2 1 3 4]));

This line of code is reshaping the input data for a neural network. The `train.data` variable is assumed to be a 4D array with dimensions `32 x 32 x 3 x N`, where `N` is the number of training examples. The `reshape` function is used to reorder the dimensions of this array. It first transposes the array so that the third dimension becomes the first dimension, i.e. `train.data'` has dimensions `N x 3 x 32 x 32`. The `reshape` function then rearranges the dimensions so that the second dimension becomes the first dimension, the first dimension becomes the second dimension, and the third and fourth dimensions are combined into a single dimension. The resulting array has dimensions `32 x 32 x 3 x N`, which is a more suitable format for feeding into a convolutional neural network (CNN), as it allows the network to treat each pixel in the image as a separate input channel. Finally, the `single` function is used to convert the array to single-precision floating point values, which is a common data type used in CNNs. Overall, this line of code is preparing the input data for a CNN by reshaping and converting the data to the appropriate format and data type.

data=xlsread('data_load'); % 按时间排序 load_data = sortrows(data, 1); % 生成训练集和测试集 train_ratio = 0.8; train_size = floor(train_ratio * size(load_data, 1)); train_data = load_data(1:train_size, 2:end); test_data = load_data(train_size+1:end, 2:end); % 数据归一化 train_data_norm = normalize(train_data); test_data_norm = normalize(test_data); % 准备训练数据 X_train = []; Y_train = []; n_steps = 3; % 每个时间步长包含的数据点数 for i = n_steps:size(train_data_norm, 1) X_train = [X_train; train_data_norm(i-n_steps+1:i, :)]; Y_train = [Y_train; train_data_norm(i, :)]; end % 调整训练数据的形状 X_train = permute(reshape(X_train', [], n_steps, size(X_train,1)), [3, 2, 1]); Y_train = permute(reshape(Y_train', [], n_steps, size(Y_train,1)), [3, 2, 1]); % 构建LSTM模型 input_size = size(train_data,2)-1; output_size = size(train_data,2)-1; num_hidden_units = 64; layers = [ ... sequenceInputLayer(input_size) lstmLayer(num_hidden_units,'OutputMode','last') fullyConnectedLayer(output_size) regressionLayer]; % 训练模型 opts = trainingOptions('adam', ... 'MaxEpochs',50, ... 'GradientThreshold',1, ... 'InitialLearnRate',0.01, ... 'LearnRateSchedule','piecewise', ... 'LearnRateDropFactor',0.1, ... 'LearnRateDropPeriod',30, ... 'Verbose',0, ... 'Plots','training-progress'); trained_net = trainNetwork(X_train, Y_train, layers, opts); % 准备测试数据 X_test = []; Y_test = []; for i = n_steps:size(test_data_norm, 1) X_test = [X_test; test_data_norm(i-n_steps+1:i, :)]; Y_test = [Y_test; test_data_norm(i, :)]; end % 调整测试数据的形状 X_test = reshape(X_test, [size(X_test,1), n_steps, size(test_data,2)-1]); Y_test = reshape(Y_test, [size(Y_test,1), size(test_data,2)-1]); % 进行预测 Y_pred = predict(trained_net, X_test); % 反归一化预测结果 Y_pred = Y_pred .* max(train_data) + min(train_data); Y_test = Y_test .* max(train_data) + min(train_data); % 绘制预测结果 figure plot(Y_test(:,1), 'b') hold on plot(Y_pred(:,1), 'r') legend('真实值', '预测值') title('负荷预测结果') xlabel('时间步长') ylabel('负荷值')

根据您提供的代码,出错的原因是您的输入数据的特征维度为 51,但是您的模型的输入层需要的特征维度为 2。这是因为您在将数据转换为训练数据时,使用了所有特征。您需要仅选择前两个特征作为输入,即时间和负荷值。您可以在以下代码中对 `train_data_norm` 进行修改,以仅选择前两个特征作为输入: ``` % 准备训练数据 X_train = []; Y_train = []; n_steps = 3; % 每个时间步长包含的数据点数 for i = n_steps:size(train_data_norm, 1) X_train = [X_train; train_data_norm(i-n_steps+1:i, 1:2)]; % 只选择前两个特征作为输入 Y_train = [Y_train; train_data_norm(i, 1:2)]; end ``` 这样可以确保您的输入数据的特征维度为 2,与您的模型的输入层所需的特征维度相匹配。
阅读全文

相关推荐

from data_process import get_data import torch from sklearn.model_selection import train_test_split from LeNet5 import LeNet5 X, y = get_data() # 获取数据【0.025,0.035】100*0.2 = 20 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, stratify=y) # 数据拆分 print(X_train.shape) #(1075, 227, 227, 1) 0 1 2 3 --- (1075, 1, 227, 227) 0 3 1 2 X_train_tensor = torch.tensor(X_train, dtype=torch.float32).permute(0, 3, 1, 2) # 将数据转成模型要求的形式 print(X_train_tensor.shape) X_test_tensor = torch.tensor(X_test, dtype=torch.float32).permute(0, 3, 1, 2) y_train_tensor = torch.tensor(y_train, dtype=torch.int64) train_ds = torch.utils.data.TensorDataset(X_train_tensor, y_train_tensor) # 将数据转为tensordata类型 train_dl = torch.utils.data.DataLoader(train_ds, batch_size=128, shuffle=True) # 对数据进行分批及打乱操作 network = LeNet5() # 实例化得到一个leNet-5网络模型 loss_fn = torch.nn.CrossEntropyLoss() # 损失函数(交差熵) optimizer = torch.optim.SGD(network.parameters(), lr=0.01) # 优化器 # 模型训练 for epoch in range(1): for image, label in train_dl: y_pre = network(image) # 模型计算(前向传播) loss = loss_fn(y_pre, label) # 计算损失值 network.zero_grad() # 将网络中的所有梯度清零 loss.backward() # 计算梯度项(反向求导) optimizer.step() # 参数优化(模型训练) print('第{}轮训练,当前批次的训练损失值为:{}'.format(epoch, loss.item())) predicted = network(X_test_tensor) # 模型预测 result = predicted.data.numpy().argmax(axis=1) # 预测标签 acc_test = (result == y_test).mean() # 模型测试精度 print(acc_test) torch.save(network.state_dict(), 'leNet5-1.pt') # 保存模型参数

import tensorflow as tf import numpy as np from keras import Model in_flow= np.load("X_in_30od.npy") out_flow= np.load("X_out_30od.npy") c1 = np.load("X_30od.npy") D1 = np.load("Y_30od.npy") print(c1.shape) print(D1.shape) max=np.max(out_flow) train_in_flow=in_flow[0:200]/max val_in_flow=in_flow[200:260]/max test_in_flow=out_flow[260:]/max train_out_flow=out_flow[0:200]/max val_out_flow=out_flow[200:260]/max test_out_flow=out_flow[260:]/max train_c1=c1[0:200]/max val_c1=c1[200:260]/max test_c1=c1[260:]/max train_D1=D1[0:200]/max val_D1=D1[200:260]/max test_D1=D1[260:]/max print(train_c1.shape, train_in_flow.shape, train_in_flow.shape, train_D1.shape) from keras.layers import * input_od=Input(shape=(5,109,109)) x1=Reshape((5,109,109,1),input_shape=(5,109,109))(input_od) x1=ConvLSTM2D(filters=64,kernel_size=(3,3),activation='relu',padding='same',input_shape=(5,109,109,1))(x1) x1=Dropout(0.2)(x1) x1=Dense(1)(x1) x1=Reshape((109,109))(x1) input_inflow=Input(shape=(5,109)) x2=Permute((2,1))(input_inflow) x2=LSTM(109,return_sequences=True,activation='sigmoid')(x2) x2=Dense(109,activation='sigmoid')(x2) x2=tf.multiply(x1,x2) x2=Dense(109,activation='sigmoid')(x2) input_inflow2=Input(shape=(5,109)) x3=Permute([2,1])(input_inflow2) x3=LSTM(109,return_sequences=True,activation='sigmoid')(x3) x3=Dense(109,activation='sigmoid')(x3) x3 = Reshape((109, 109))(x3) x3=tf.multiply(x1,x3) x3=Dense(109,activation='sigmoid')(x3) mix=Add()([x2,x3]) mix=Bidirectional(LSTM(109,return_sequences=True,activation='sigmoid'))(mix) mix=Dense(109,activation='sigmoid')(mix) model= Model(inputs=[input_od,input_inflow,input_inflow2],outputs=[mix]) model.compile(optimizer='adam', loss='mean_squared_error') history = model.fit([train_c1, train_in_flow,train_in_flow ],train_D1, validation_data=([val_c1,val_out_flow, val_in_flow], val_D1), epochs=100, batch_size=32) model.save("my_model.h10032") model.save_weights("my_model_weights.h10032") 根据上述程序利用保持好的模型预测并将预测结果可视化输出

def init(self, dim, num_heads, kernel_size=3, padding=1, stride=1, qkv_bias=False, qk_scale=None, attn_drop=0., proj_drop=0.): super().init() head_dim = dim // num_heads self.num_heads = num_heads self.kernel_size = kernel_size self.padding = padding self.stride = stride self.scale = qk_scale or head_dim**-0.5 self.v = nn.Linear(dim, dim, bias=qkv_bias) self.attn = nn.Linear(dim, kernel_size**4 * num_heads) self.attn_drop = nn.Dropout(attn_drop) self.proj = nn.Linear(dim, dim) self.proj_drop = nn.Dropout(proj_drop) self.unfold = nn.Unfold(kernel_size=kernel_size, padding=padding, stride=stride) self.pool = nn.AvgPool2d(kernel_size=stride, stride=stride, ceil_mode=True) def forward(self, x): B, H, W, C = x.shape v = self.v(x).permute(0, 3, 1, 2) h, w = math.ceil(H / self.stride), math.ceil(W / self.stride) v = self.unfold(v).reshape(B, self.num_heads, C // self.num_heads, self.kernel_size * self.kernel_size, h * w).permute(0, 1, 4, 3, 2) # B,H,N,kxk,C/H attn = self.pool(x.permute(0, 3, 1, 2)).permute(0, 2, 3, 1) attn = self.attn(attn).reshape( B, h * w, self.num_heads, self.kernel_size * self.kernel_size, self.kernel_size * self.kernel_size).permute(0, 2, 1, 3, 4) # B,H,N,kxk,kxk attn = attn * self.scale attn = attn.softmax(dim=-1) attn = self.attn_drop(attn) x = (attn @ v).permute(0, 1, 4, 3, 2).reshape( B, C * self.kernel_size * self.kernel_size, h * w) x = F.fold(x, output_size=(H, W), kernel_size=self.kernel_size, padding=self.padding, stride=self.stride) x = self.proj(x.permute(0, 2, 3, 1)) x = self.proj_drop(x) return x

class STHSL(nn.Module): def __init__(self): super(STHSL, self).__init__() self.dimConv_in = nn.Conv3d(1, args.latdim, kernel_size=1, padding=0, bias=True) self.dimConv_local = nn.Conv2d(args.latdim, 1, kernel_size=1, padding=0, bias=True) self.dimConv_global = nn.Conv2d(args.latdim, 1, kernel_size=1, padding=0, bias=True) self.spa_cnn_local1 = spa_cnn_local(args.latdim, args.latdim) self.spa_cnn_local2 = spa_cnn_local(args.latdim, args.latdim) self.tem_cnn_local1 = tem_cnn_local(args.latdim, args.latdim) self.tem_cnn_local2 = tem_cnn_local(args.latdim, args.latdim) self.Hypergraph_Infomax = Hypergraph_Infomax() self.tem_cnn_global1 = tem_cnn_global(args.latdim, args.latdim, 9) self.tem_cnn_global2 = tem_cnn_global(args.latdim, args.latdim, 9) self.tem_cnn_global3 = tem_cnn_global(args.latdim, args.latdim, 9) self.tem_cnn_global4 = tem_cnn_global(args.latdim, args.latdim, 6) self.local_tra = Transform_3d() self.global_tra = Transform_3d() def forward(self, embeds_true, neg): embeds_in_global = self.dimConv_in(embeds_true.unsqueeze(1)) DGI_neg = self.dimConv_in(neg.unsqueeze(1)) embeds_in_local = embeds_in_global.permute(0, 3, 1, 2, 4).contiguous().view(-1, args.latdim, args.row, args.col, 4) spa_local1 = self.spa_cnn_local1(embeds_in_local) spa_local2 = self.spa_cnn_local2(spa_local1) spa_local2 = spa_local2.view(-1, args.temporalRange, args.latdim, args.areaNum, args.cateNum).permute(0, 2, 3, 1, 4) tem_local1 = self.tem_cnn_local1(spa_local2) tem_local2 = self.tem_cnn_local2(tem_local1) eb_local = tem_local2.mean(3) eb_tra_local = self.local_tra(tem_local2) out_local = self.dimConv_local(eb_local).squeeze(1) hy_embeds, Infomax_pred = self.Hypergraph_Infomax(embeds_in_global, DGI_neg) tem_global1 = self.tem_cnn_global1(hy_embeds) tem_global2 = self.tem_cnn_global2(tem_global1) tem_global3 = self.tem_cnn_global3(tem_global2) tem_global4 = self.tem_cnn_global4(tem_global3) eb_global = tem_global4.squeeze(3) eb_tra_global = self.global_tra(tem_global4) out_global = self.dimConv_global(eb_global).squeeze(1) return out_local, eb_tra_local, eb_tra_global, Infomax_pred, out_global

最新推荐

recommend-type

数学建模拟合与插值.ppt

数学建模拟合与插值.ppt
recommend-type

[net毕业设计]ASP.NET教育报表管理系统-权限管理模块(源代码+论文).zip

【项目资源】:包含前端、后端、移动开发、操作系统、人工智能、物联网、信息化管理、数据库、硬件开发、大数据、课程资源、音视频、网站开发等各种技术项目的源码。包括STM32、ESP8266、PHP、QT、Linux、iOS、C++、Java、python、web、C#、EDA、proteus、RTOS等项目的源码。【项目质量】:所有源码都经过严格测试,可以直接运行。功能在确认正常工作后才上传。【适用人群】:适用于希望学习不同技术领域的小白或进阶学习者。可作为毕设项目、课程设计、大作业、工程实训或初期项目立项。【附加价值】:项目具有较高的学习借鉴价值,也可直接拿来修改复刻。对于有一定基础或热衷于研究的人来说,可以在这些基础代码上进行修改和扩展,实现其他功能。【沟通交流】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。鼓励下载和使用,并欢迎大家互相学习,共同进步。
recommend-type

mysql相关资源.txt

mysql相关资源.txt
recommend-type

利用HTML+CSS+JS的国漫分享网站(响应式)

此项目为一个HTML+CSS+JS的国漫分享网站,用户可以在此网站中观看自己喜欢的国漫。此网站共有4个页面,分别为首页,最新动态,热门推荐,分类。页面动漫图片齐全,内容可更改。可用于期末课程设计或个人课程设计。
recommend-type

MATLAB实现小波阈值去噪:Visushrink硬软算法对比

资源摘要信息:"本资源提供了一套基于MATLAB实现的小波阈值去噪算法代码。用户可以通过运行主文件"project.m"来执行该去噪算法,并观察到对一张256x256像素的黑白“莱娜”图片进行去噪的全过程。此算法包括了添加AWGN(加性高斯白噪声)的过程,并展示了通过Visushrink硬阈值和软阈值方法对图像去噪的对比结果。此外,该实现还包括了对图像信噪比(SNR)的计算以及将噪声图像和去噪后的图像的打印输出。Visushrink算法的参考代码由M.Kiran Kumar提供,可以在Mathworks网站上找到。去噪过程中涉及到的Lipschitz指数计算,是基于Venkatakrishnan等人的研究,使用小波变换模量极大值(WTMM)的方法来测量。" 知识点详细说明: 1. MATLAB环境使用:本代码要求用户在MATLAB环境下运行。MATLAB是一种高性能的数值计算和可视化环境,广泛应用于工程计算、算法开发和数据分析等领域。 2. 小波阈值去噪:小波去噪是信号处理中的一个技术,用于从信号中去除噪声。该技术利用小波变换将信号分解到不同尺度的子带,然后根据信号与噪声在小波域中的特性差异,通过设置阈值来消除或减少噪声成分。 3. Visushrink算法:Visushrink算法是一种小波阈值去噪方法,由Donoho和Johnstone提出。该算法的硬阈值和软阈值是两种不同的阈值处理策略,硬阈值会将小波系数小于阈值的部分置零,而软阈值则会将这部分系数缩减到零。硬阈值去噪后的信号可能有更多震荡,而软阈值去噪后的信号更为平滑。 4. AWGN(加性高斯白噪声)添加:在模拟真实信号处理场景时,通常需要对原始信号添加噪声。AWGN是一种常见且广泛使用的噪声模型,它假设噪声是均值为零、方差为N0/2的高斯分布,并且与信号不相关。 5. 图像处理:该实现包含了图像处理的相关知识,包括图像的读取、显示和噪声添加。此外,还涉及了图像去噪前后视觉效果的对比展示。 6. 信噪比(SNR)计算:信噪比是衡量信号质量的一个重要指标,反映了信号中有效信息与噪声的比例。在图像去噪的过程中,通常会计算并比较去噪前后图像的SNR值,以评估去噪效果。 7. Lipschitz指数计算:Lipschitz指数是衡量信号局部变化复杂性的一个量度,通常用于描述信号在某个尺度下的变化规律。在小波去噪过程中,Lipschitz指数可用于确定是否保留某个小波系数,因为它与信号的奇异性相关联。 8. WTMM(小波变换模量极大值):小波变换模量极大值方法是一种小波分析技术,用于检测信号中的奇异点或边缘。该技术通过寻找小波系数模量极大值的变化来推断信号的局部特征。 9. 系统开源:该资源被标记为“系统开源”,意味着该MATLAB代码及其相关文件是可以公开访问和自由使用的。开源资源为研究人员和开发者提供了学习和实验的机会,有助于知识共享和技术发展。 资源的文件结构包括"Wavelet-Based-Denoising-MATLAB-Code-master",表明用户获取的是一套完整的项目文件夹,其中包含了执行小波去噪算法所需的所有相关文件和脚本。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【交互特征的影响】:分类问题中的深入探讨,如何正确应用交互特征

![【交互特征的影响】:分类问题中的深入探讨,如何正确应用交互特征](https://img-blog.csdnimg.cn/img_convert/21b6bb90fa40d2020de35150fc359908.png) # 1. 交互特征在分类问题中的重要性 在当今的机器学习领域,分类问题一直占据着核心地位。理解并有效利用数据中的交互特征对于提高分类模型的性能至关重要。本章将介绍交互特征在分类问题中的基础重要性,以及为什么它们在现代数据科学中变得越来越不可或缺。 ## 1.1 交互特征在模型性能中的作用 交互特征能够捕捉到数据中的非线性关系,这对于模型理解和预测复杂模式至关重要。例如
recommend-type

c语言从链式队列 中获取头部元素并返回其状态的函数怎么写

在 C 语言中,如果你有一个链式队列的数据结构,通常它会包含两个指针,一个指向队首(front),一个指向队尾(rear)。以下是一个简单的链式队列头部元素获取函数的示例,假设 `Queue` 是你的链式队列结构体,并且已经包含了必要的成员变量: ```c typedef struct Queue { void* data; // 存储数据的指针 struct Queue* front; // 队首指针 struct Queue* rear; // 队尾指针 } Queue; // 获取头部元素并检查是否为空(如果队列为空,返回 NULL 或适当错误值) void*
recommend-type

易语言实现画板图像缩放功能教程

资源摘要信息:"易语言是一种基于中文的编程语言,主要面向中文用户,其特点是使用中文关键词和语法结构,使得中文使用者更容易理解和编写程序。易语言画板图像缩放源码是易语言编写的程序代码,用于实现图形用户界面中的画板组件上图像的缩放功能。通过这个源码,用户可以调整画板上图像的大小,从而满足不同的显示需求。它可能涉及到的图形处理技术包括图像的获取、缩放算法的实现以及图像的重新绘制等。缩放算法通常可以分为两大类:高质量算法和快速算法。高质量算法如双线性插值和双三次插值,这些算法在图像缩放时能够保持图像的清晰度和细节。快速算法如最近邻插值和快速放大技术,这些方法在处理速度上更快,但可能会牺牲一些图像质量。根据描述和标签,可以推测该源码主要面向图形图像处理爱好者或专业人员,目的是提供一种方便易用的方法来实现图像缩放功能。由于源码文件名称为'画板图像缩放.e',可以推断该文件是一个易语言项目文件,其中包含画板组件和图像处理的相关编程代码。" 易语言作为一种编程语言,其核心特点包括: 1. 中文编程:使用中文作为编程关键字,降低了学习编程的门槛,使得不熟悉英文的用户也能够编写程序。 2. 面向对象:易语言支持面向对象编程(OOP),这是一种编程范式,它使用对象及其接口来设计程序,以提高软件的重用性和模块化。 3. 组件丰富:易语言提供了丰富的组件库,用户可以通过拖放的方式快速搭建图形用户界面。 4. 简单易学:由于语法简单直观,易语言非常适合初学者学习,同时也能够满足专业人士对快速开发的需求。 5. 开发环境:易语言提供了集成开发环境(IDE),其中包含了代码编辑器、调试器以及一系列辅助开发工具。 6. 跨平台:易语言支持在多个操作系统平台编译和运行程序,如Windows、Linux等。 7. 社区支持:易语言有着庞大的用户和开发社区,社区中有很多共享的资源和代码库,便于用户学习和解决编程中遇到的问题。 在处理图形图像方面,易语言能够: 1. 图像文件读写:支持常见的图像文件格式如JPEG、PNG、BMP等的读取和保存。 2. 图像处理功能:包括图像缩放、旋转、裁剪、颜色调整、滤镜效果等基本图像处理操作。 3. 图形绘制:易语言提供了丰富的绘图功能,包括直线、矩形、圆形、多边形等基本图形的绘制,以及文字的输出。 4. 图像缩放算法:易语言实现的画板图像缩放功能中可能使用了特定的缩放算法来优化图像的显示效果和性能。 易语言画板图像缩放源码的实现可能涉及到以下几个方面: 1. 获取画板上的图像:首先需要从画板组件中获取到用户当前绘制或已经存在的图像数据。 2. 图像缩放算法的应用:根据用户的需求,应用适当的图像缩放算法对获取的图像数据进行处理。 3. 图像重新绘制:处理后的图像数据需要重新绘制到画板上,以实现缩放后的效果。 4. 用户交互:提供用户界面,让用户能够通过按钮、滑块等控件选择缩放比例和模式,以及触发缩放操作。 5. 性能优化:为了确保图像缩放操作流畅,需要考虑代码的执行效率和资源的合理利用。 在易语言社区中,用户可以根据自己的需求修改和扩展画板图像缩放源码,或者根据提供的API进一步开发更多高级图像处理功能,从而丰富软件的功能和用户体验。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依