epochs.plot_psd(picks='eeg',fmin=1, fmax=60 )纵轴太大

时间: 2024-01-29 16:05:04 浏览: 129
如果 `epochs.plot_psd(picks='eeg',fmin=1, fmax=60 )` 生成的图中纵轴太大,可以使用 `yscale` 参数来缩小纵轴的刻度。默认的 `yscale` 参数为 'auto',可以将其设置为 'log' 或 'linear',来分别使用对数坐标轴或线性坐标轴来展示数据。 例如,下面的代码将 `yscale` 参数设置为 'log',将纵轴刻度缩小。 ```python epochs.plot_psd(picks='eeg', fmin=1, fmax=60, yscale='log') ``` 如果还觉得纵轴刻度太大,可以尝试调整 `n_fft` 参数,该参数控制 PSD 计算时使用的 FFT 点数。默认情况下,`n_fft` 值为 256,可以逐渐增大 `n_fft` 值,以获取更加平滑的 PSD 曲线。但需要注意的是,增大 `n_fft` 值会增加计算时间。例如,下面的代码将 `n_fft` 设置为 512: ```python epochs.plot_psd(picks='eeg', fmin=1, fmax=60, yscale='log', n_fft=512) ```
相关问题

epochs.plot_psd(picks='eeg',fmin=1, fmax=60 )参数代码实例

下面是一个使用 MNE-Python 库中的示例数据进行 PSD 分析的代码实例,其中的参数为 `picks='eeg',fmin=1, fmax=60`。 ```python import mne # 加载示例数据 raw = mne.io.read_raw_fif(mne.datasets.sample.data_path()+'/MEG/sample/sample_audvis_filt-0-40_raw.fif', preload=True) events = mne.read_events(mne.datasets.sample.data_path()+'/MEG/sample/sample_audvis_filt-0-40_raw-eve.fif') event_id = {'Auditory/Left': 1, 'Auditory/Right': 2, 'Visual/Left': 3, 'Visual/Right': 4} tmin, tmax = -0.2, 0.5 baseline = (None, 0) epochs = mne.Epochs(raw, events, event_id, tmin, tmax, proj=True, picks='eeg', baseline=baseline, preload=True) # 绘制 PSD 图 epochs.plot_psd(picks='eeg', fmin=1, fmax=60) ``` 该代码会加载示例数据中的 EEG 通道数据,然后对其进行 PSD 分析并绘图。绘图结果会显示出每个 EEG 通道在频率范围1-60Hz内的功率谱密度。

epochs.plot_psd纵轴调整

对于`epochs.plot_psd()`函数而言,纵轴即功率谱密度(PSD),它的单位通常是微伏平方/赫兹(uV^2/Hz),因此在绘制时纵轴的刻度值通常很小。如果需要对纵轴进行调整,可以使用`ax.set()`方法来设置纵轴刻度范围、标签和刻度值。 下面是一个例子,展示如何调整纵轴刻度值的范围和标签: ```python import matplotlib.pyplot as plt from mne import Epochs # 创建Epochs对象 epochs = Epochs(raw, events, event_id, tmin=-1, tmax=1, baseline=(None, 0)) # 绘制PSD并调整纵轴刻度值 fig, ax = plt.subplots() epochs.plot_psd(fmin=1, fmax=50, proj=True, n_fft=2048, ax=ax, color='blue', area_mode='std', area_alpha=0.5) ax.set(ylabel='Power Spectral Density (uV^2/Hz)', yscale='log', ylim=(1e-20, 1e-5)) # 显示图像 plt.show() ``` 在这个例子中,我们使用`ax.set()`方法将纵轴的刻度值范围设置为1e-20至1e-5,同时将纵轴的刻度值设为对数刻度,并设置纵轴标签为“Power Spectral Density (uV^2/Hz)”。这样做可以让纵轴的刻度值更易于阅读和理解。
阅读全文

相关推荐

生成torch代码:class ConcreteAutoencoderFeatureSelector(): def __init__(self, K, output_function, num_epochs=300, batch_size=None, learning_rate=0.001, start_temp=10.0, min_temp=0.1, tryout_limit=1): self.K = K self.output_function = output_function self.num_epochs = num_epochs self.batch_size = batch_size self.learning_rate = learning_rate self.start_temp = start_temp self.min_temp = min_temp self.tryout_limit = tryout_limit def fit(self, X, Y=None, val_X=None, val_Y=None): if Y is None: Y = X assert len(X) == len(Y) validation_data = None if val_X is not None and val_Y is not None: assert len(val_X) == len(val_Y) validation_data = (val_X, val_Y) if self.batch_size is None: self.batch_size = max(len(X) // 256, 16) num_epochs = self.num_epochs steps_per_epoch = (len(X) + self.batch_size - 1) // self.batch_size for i in range(self.tryout_limit): K.set_learning_phase(1) inputs = Input(shape=X.shape[1:]) alpha = math.exp(math.log(self.min_temp / self.start_temp) / (num_epochs * steps_per_epoch)) self.concrete_select = ConcreteSelect(self.K, self.start_temp, self.min_temp, alpha, name='concrete_select') selected_features = self.concrete_select(inputs) outputs = self.output_function(selected_features) self.model = Model(inputs, outputs) self.model.compile(Adam(self.learning_rate), loss='mean_squared_error') print(self.model.summary()) stopper_callback = StopperCallback() hist = self.model.fit(X, Y, self.batch_size, num_epochs, verbose=1, callbacks=[stopper_callback], validation_data=validation_data) # , validation_freq = 10) if K.get_value(K.mean( K.max(K.softmax(self.concrete_select.logits, axis=-1)))) >= stopper_callback.mean_max_target: break num_epochs *= 2 self.probabilities = K.get_value(K.softmax(self.model.get_layer('concrete_select').logits)) self.indices = K.get_value(K.argmax(self.model.get_layer('concrete_select').logits)) return self def get_indices(self): return K.get_value(K.argmax(self.model.get_layer('concrete_select').logits)) def get_mask(self): return K.get_value(K.sum(K.one_hot(K.argmax(self.model.get_layer('concrete_select').logits), self.model.get_layer('concrete_select').logits.shape[1]), axis=0)) def transform(self, X): return X[self.get_indices()] def fit_transform(self, X, y): self.fit(X, y) return self.transform(X) def get_support(self, indices=False): return self.get_indices() if indices else self.get_mask() def get_params(self): return self.model

介绍一下这段代码的Depthwise卷积层def get_data4EEGNet(kernels, chans, samples): K.set_image_data_format('channels_last') data_path = '/Users/Administrator/Desktop/project 5-5-1/' raw_fname = data_path + 'concatenated.fif' event_fname = data_path + 'concatenated.fif' tmin, tmax = -0.5, 0.5 #event_id = dict(aud_l=769, aud_r=770, foot=771, tongue=772) raw = io.Raw(raw_fname, preload=True, verbose=False) raw.filter(2, None, method='iir') events, event_id = mne.events_from_annotations(raw, event_id={'769': 1, '770': 2,'770': 3, '771': 4}) #raw.info['bads'] = ['MEG 2443'] picks = mne.pick_types(raw.info, meg=False, eeg=True, stim=False, eog=False) epochs = mne.Epochs(raw, events, event_id, tmin, tmax, proj=False, picks=picks, baseline=None, preload=True, verbose=False) labels = epochs.events[:, -1] print(len(labels)) print(len(epochs)) #epochs.plot(block=True) X = epochs.get_data() * 250 y = labels X_train = X[0:144,] Y_train = y[0:144] X_validate = X[144:216, ] Y_validate = y[144:216] X_test = X[216:, ] Y_test = y[216:] Y_train = np_utils.to_categorical(Y_train - 1) Y_validate = np_utils.to_categorical(Y_validate - 1) Y_test = np_utils.to_categorical(Y_test - 1) X_train = X_train.reshape(X_train.shape[0], chans, samples, kernels) X_validate = X_validate.reshape(X_validate.shape[0], chans, samples, kernels) X_test = X_test.reshape(X_test.shape[0], chans, samples, kernels) return X_train, X_validate, X_test, Y_train, Y_validate, Y_test kernels, chans, samples = 1, 3, 251 X_train, X_validate, X_test, Y_train, Y_validate, Y_test = get_data4EEGNet(kernels, chans, samples) model = EEGNet(nb_classes=3, Chans=chans, Samples=samples, dropoutRate=0.5, kernLength=32, F1=8, D=2, F2=16, dropoutType='Dropout') model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) checkpointer = ModelCheckpoint(filepath='/Users/XXX/baseline.h5', verbose=1, save_best_only=True) class_weights = {0: 1, 1: 1, 2: 1, 3: 1} fittedModel = model.fit(X_train, Y_train, batch_size=2, epochs=100, verbose=2, validation_data=(X_validate, Y_validate), callbacks=[checkpointer], class_weight=class_weights) probs = model.predict(X_test) preds = probs.argmax(axis=-1) acc = np.mean(preds == Y_test.argmax(axis=-1)) print("Classification accuracy: %f " % (acc))

检查代码是否存在不符合paddle框架规范的地方并修改:class CosineAnnealingWarmbootingLR: # cawb learning rate scheduler: given the warm booting steps, calculate the learning rate automatically def __init__(self, optimizer, epochs=0, eta_min=0.05, steps=[], step_scale=0.8, lf=None, batchs=0, warmup_epoch=0, epoch_scale=1.0): self.warmup_iters = batchs * warmup_epoch self.optimizer = optimizer self.eta_min = eta_min self.iters = -1 self.iters_batch = -1 self.base_lr = [group['lr'] for group in optimizer.param_groups] self.step_scale = step_scale steps.sort() self.steps = [warmup_epoch] + [i for i in steps if (i < epochs and i > warmup_epoch)] + [epochs] self.gap = 0 self.last_epoch = 0 self.lf = lf self.epoch_scale = epoch_scale # Initialize epochs and base learning rates for group in optimizer.param_groups: group.setdefault('initial_lr', group['lr']) def step(self, external_iter = None): self.iters += 1 if external_iter is not None: self.iters = external_iter # cos warm boot policy iters = self.iters + self.last_epoch scale = 1.0 for i in range(len(self.steps)-1): if (iters <= self.steps[i+1]): self.gap = self.steps[i+1] - self.steps[i] iters = iters - self.steps[i] if i != len(self.steps)-2: self.gap += self.epoch_scale break scale *= self.step_scale if self.lf is None: for group, lr in zip(self.optimizer.param_groups, self.base_lr): group['lr'] = scale * lr * ((((1 + math.cos(iters * math.pi / self.gap)) / 2) ** 1.0) * (1.0 - self.eta_min) + self.eta_min) else: for group, lr in zip(self.optimizer.param_groups, self.base_lr): group['lr'] = scale * lr * self.lf(iters, self.gap) return self.optimizer.param_groups[0]['lr'] def step_batch(self): self.iters_batch += 1 if self.iters_batch < self.warmup_iters: rate = self.iters_batch / self.warmup_iters for group, lr in zip(self.optimizer.param_groups, self.base_lr): group['lr'] = lr * rate return self.optimizer.param_groups[0]['lr'] else: return None

import tensorflow as tf from im_dataset import train_image, train_label, test_image, test_label from AlexNet8 import AlexNet8 from baseline import baseline from InceptionNet import Inception10 from Resnet18 import ResNet18 import os import matplotlib.pyplot as plt import argparse import numpy as np parse = argparse.ArgumentParser(description="CVAE model for generation of metamaterial") hyperparameter_set = parse.add_argument_group(title='HyperParameter Setting') dim_set = parse.add_argument_group(title='Dim setting') hyperparameter_set.add_argument("--num_epochs",type=int,default=200,help="Number of train epochs") hyperparameter_set.add_argument("--learning_rate",type=float,default=4e-3,help="learning rate") hyperparameter_set.add_argument("--image_size",type=int,default=16*16,help="vector size of image") hyperparameter_set.add_argument("--batch_size",type=int,default=16,help="batch size of database") dim_set.add_argument("--z_dim",type=int,default=20,help="dim of latent variable") dim_set.add_argument("--feature_dim",type=int,default=32,help="dim of feature vector") dim_set.add_argument("--phase_curve_dim",type=int,default=41,help="dim of phase curve vector") dim_set.add_argument("--image_dim",type=int,default=16,help="image size: [image_dim,image_dim,1]") args = parse.parse_args() def preprocess(x, y): x = tf.io.read_file(x) x = tf.image.decode_png(x, channels=1) x = tf.cast(x,dtype=tf.float32) /255. x1 = tf.concat([x, x], 0) x2 = tf.concat([x1, x1], 1) x = x - 0.5 y = tf.convert_to_tensor(y) y = tf.cast(y,dtype=tf.float32) return x2, y train_db = tf.data.Dataset.from_tensor_slices((train_image, train_label)) train_db = train_db.shuffle(100).map(preprocess).batch(args.batch_size) test_db = tf.data.Dataset.from_tensor_slices((test_image, test_label)) test_db = test_db.map(preprocess).batch(args.batch_size) model = ResNet18([2, 2, 2, 2]) model.build(input_shape=(args.batch_size, 32, 32, 1)) model.compile(optimizer = tf.keras.optimizers.Adam(lr = 1e-3), loss = tf.keras.losses.MSE, metrics = ['MSE']) checkpoint_save_path = "./checkpoint/InceptionNet_im_3/checkpoint.ckpt" if os.path.exists(checkpoint_save_path+'.index'): print('------------------load the model---------------------') model.load_weights(checkpoint_save_path) cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path,save_weights_only=True,save_best_only=True) history = model.fit(train_db, epochs=500, validation_data=test_db, validation_freq=1, callbacks=[cp_callback]) model.summary() acc = history.history['loss'] val_acc = history.history['val_loss'] plt.plot(acc, label='Training MSE') plt.plot(val_acc, label='Validation MSE') plt.title('Training and Validation MSE') plt.legend() plt.show()

最新推荐

recommend-type

解决Tensorflow2.0 tf.keras.Model.load_weights() 报错处理问题

1. 模型保存: ```python model.save_weights('./model.h5') ``` 2. 重新启动脚本并加载模型: ```python model.load_weights('./model.h5') ``` 3. 报错: ```python ValueError: You are trying to load...
recommend-type

在keras中model.fit_generator()和model.fit()的区别说明

其参数包括训练数据`x`、目标数据`y`、批量大小`batch_size`、训练轮数`epochs`、日志级别`verbose`、回调函数`callbacks`等。此外,还有验证数据设置`validation_split`和`validation_data`,用于在训练过程中监控...
recommend-type

2000-2021年中国科技统计年鉴(分省年度)面板数据集-最新更新.zip

2000-2021年中国科技统计年鉴(分省年度)面板数据集-最新更新.zip
recommend-type

PPT保护工具PDFeditor专业版-精心整理.zip

PPT保护工具PDFeditor专业版-精心整理.zip
recommend-type

Java集合ArrayList实现字符串管理及效果展示

资源摘要信息:"Java集合框架中的ArrayList是一个可以动态增长和减少的数组实现。它继承了AbstractList类,并且实现了List接口。ArrayList内部使用数组来存储添加到集合中的元素,且允许其中存储重复的元素,也可以包含null元素。由于ArrayList实现了List接口,它支持一系列的列表操作,包括添加、删除、获取和设置特定位置的元素,以及迭代器遍历等。 当使用ArrayList存储元素时,它的容量会自动增加以适应需要,因此无需在创建ArrayList实例时指定其大小。当ArrayList中的元素数量超过当前容量时,其内部数组会重新分配更大的空间以容纳更多的元素。这个过程是自动完成的,但它可能导致在列表变大时会有性能上的损失,因为需要创建一个新的更大的数组,并将所有旧元素复制到新数组中。 在Java代码中,使用ArrayList通常需要导入java.util.ArrayList包。例如: ```java import java.util.ArrayList; public class Main { public static void main(String[] args) { ArrayList<String> list = new ArrayList<String>(); list.add("Hello"); list.add("World"); // 运行效果图将显示包含"Hello"和"World"的列表 } } ``` 上述代码创建了一个名为list的ArrayList实例,并向其中添加了两个字符串元素。在运行效果图中,可以直观地看到这个列表的内容。ArrayList提供了多种方法来操作集合中的元素,比如get(int index)用于获取指定位置的元素,set(int index, E element)用于更新指定位置的元素,remove(int index)或remove(Object o)用于删除元素,size()用于获取集合中元素的个数等。 为了演示如何使用ArrayList进行字符串的存储和管理,以下是更加详细的代码示例,以及一个简单的运行效果图展示: ```java import java.util.ArrayList; import java.util.Iterator; public class Main { public static void main(String[] args) { // 创建一个存储字符串的ArrayList ArrayList<String> list = new ArrayList<String>(); // 向ArrayList中添加字符串元素 list.add("Apple"); list.add("Banana"); list.add("Cherry"); list.add("Date"); // 使用增强for循环遍历ArrayList System.out.println("遍历ArrayList:"); for (String fruit : list) { System.out.println(fruit); } // 使用迭代器进行遍历 System.out.println("使用迭代器遍历:"); Iterator<String> iterator = list.iterator(); while (iterator.hasNext()) { String fruit = iterator.next(); System.out.println(fruit); } // 更新***List中的元素 list.set(1, "Blueberry"); // 移除ArrayList中的元素 list.remove(2); // 再次遍历ArrayList以展示更改效果 System.out.println("修改后的ArrayList:"); for (String fruit : list) { System.out.println(fruit); } // 获取ArrayList的大小 System.out.println("ArrayList的大小为: " + list.size()); } } ``` 在运行上述代码后,控制台会输出以下效果图: ``` 遍历ArrayList: Apple Banana Cherry Date 使用迭代器遍历: Apple Banana Cherry Date 修改后的ArrayList: Apple Blueberry Date ArrayList的大小为: 3 ``` 此代码段首先创建并初始化了一个包含几个水果名称的ArrayList,然后展示了如何遍历这个列表,更新和移除元素,最终再次遍历列表以展示所做的更改,并输出列表的当前大小。在这个过程中,可以看到ArrayList是如何灵活地管理字符串集合的。 此外,ArrayList的实现是基于数组的,因此它允许快速的随机访问,但对元素的插入和删除操作通常需要移动后续元素以保持数组的连续性,所以这些操作的性能开销会相对较大。如果频繁进行插入或删除操作,可以考虑使用LinkedList,它基于链表实现,更适合于这类操作。 在开发中使用ArrayList时,应当注意避免过度使用,特别是当知道集合中的元素数量将非常大时,因为这样可能会导致较高的内存消耗。针对特定的业务场景,选择合适的集合类是非常重要的,以确保程序性能和资源的最优化利用。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【MATLAB信号处理优化】:算法实现与问题解决的实战指南

![【MATLAB信号处理优化】:算法实现与问题解决的实战指南](https://i0.hdslb.com/bfs/archive/e393ed87b10f9ae78435997437e40b0bf0326e7a.png@960w_540h_1c.webp) # 1. MATLAB信号处理基础 MATLAB,作为工程计算和算法开发中广泛使用的高级数学软件,为信号处理提供了强大的工具箱。本章将介绍MATLAB信号处理的基础知识,包括信号的类型、特性以及MATLAB处理信号的基本方法和步骤。 ## 1.1 信号的种类与特性 信号是信息的物理表示,可以是时间、空间或者其它形式的函数。信号可以被分
recommend-type

在西门子S120驱动系统中,更换SMI20编码器时应如何确保数据的正确备份和配置?

在西门子S120驱动系统中更换SMI20编码器是一个需要谨慎操作的过程,以确保数据的正确备份和配置。这里是一些详细步骤: 参考资源链接:[西门子Drive_CLIQ编码器SMI20数据在线读写步骤](https://wenku.csdn.net/doc/39x7cis876?spm=1055.2569.3001.10343) 1. 在进行任何操作之前,首先确保已经备份了当前工作的SMI20编码器的数据。这通常需要使用STARTER软件,并连接CU320控制器和电脑。 2. 从拓扑结构中移除旧编码器,下载当前拓扑结构,然后删除旧的SMI
recommend-type

实现2D3D相机拾取射线的关键技术

资源摘要信息: "camera-picking-ray:为2D/3D相机创建拾取射线" 本文介绍了一个名为"camera-picking-ray"的工具,该工具用于在2D和3D环境中,通过相机视角进行鼠标交互时创建拾取射线。拾取射线是指从相机(或视点)出发,通过鼠标点击位置指向场景中某一点的虚拟光线。这种技术广泛应用于游戏开发中,允许用户通过鼠标操作来选择、激活或互动场景中的对象。为了实现拾取射线,需要相机的投影矩阵(projection matrix)和视图矩阵(view matrix),这两个矩阵结合后可以逆变换得到拾取射线的起点和方向。 ### 知识点详解 1. **拾取射线(Picking Ray)**: - 拾取射线是3D图形学中的一个概念,它是从相机出发穿过视口(viewport)上某个特定点(通常是鼠标点击位置)的射线。 - 在游戏和虚拟现实应用中,拾取射线用于检测用户选择的对象、触发事件、进行命中测试(hit testing)等。 2. **投影矩阵(Projection Matrix)与视图矩阵(View Matrix)**: - 投影矩阵负责将3D场景中的点映射到2D视口上,通常包括透视投影(perspective projection)和平面投影(orthographic projection)。 - 视图矩阵定义了相机在场景中的位置和方向,它将物体从世界坐标系变换到相机坐标系。 - 将投影矩阵和视图矩阵结合起来得到的invProjView矩阵用于从视口坐标转换到相机空间坐标。 3. **实现拾取射线的过程**: - 首先需要计算相机的invProjView矩阵,这是投影矩阵和视图矩阵的逆矩阵。 - 使用鼠标点击位置的视口坐标作为输入,通过invProjView矩阵逆变换,计算出射线在世界坐标系中的起点(origin)和方向(direction)。 - 射线的起点一般为相机位置或相机前方某个位置,方向则是从相机位置指向鼠标点击位置的方向向量。 - 通过编程语言(如JavaScript)的矩阵库(例如gl-mat4)来执行这些矩阵运算。 4. **命中测试(Hit Testing)**: - 使用拾取射线进行命中测试是一种检测射线与场景中物体相交的技术。 - 在3D游戏开发中,通过计算射线与物体表面的交点来确定用户是否选中了一个物体。 - 此过程中可能需要考虑射线与不同物体类型的交互,例如球体、平面、多边形网格等。 5. **JavaScript与矩阵操作库**: - JavaScript是一种广泛用于网页开发的编程语言,在WebGL项目中用于处理图形渲染逻辑。 - gl-mat4是一个矩阵操作库,它提供了创建和操作4x4矩阵的函数,这些矩阵用于WebGL场景中的各种变换。 - 通过gl-mat4库,开发者可以更容易地执行矩阵运算,而无需手动编写复杂的数学公式。 6. **模块化编程**: - camera-picking-ray看起来是一个独立的模块或库,它封装了拾取射线生成的算法,让开发者能够通过简单的函数调用来实现复杂的3D拾取逻辑。 - 模块化编程允许开发者将拾取射线功能集成到更大的项目中,同时保持代码的清晰和可维护性。 7. **文件名称列表**: - 提供的文件名称列表是"camera-picking-ray-master",表明这是一个包含多个文件和子目录的模块或项目,通常在GitHub等源代码托管平台上使用master分支来标识主分支。 - 开发者可以通过检查此项目源代码来更深入地理解拾取射线的实现细节,并根据需要进行修改或扩展功能。 ### 结论 "camera-picking-ray"作为一个技术工具,为开发者提供了一种高效生成和使用拾取射线的方法。它通过组合和逆变换相机矩阵,允许对3D场景中的物体进行精准选择和交互。此技术在游戏开发、虚拟现实、计算机辅助设计(CAD)等领域具有重要应用价值。通过了解和应用拾取射线,开发者可以显著提升用户的交互体验和操作精度。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依