利用python使用 np.random 函数创建一个 test.csv 文件,其中包含 100 行和 5 列的一些随机数据。使用 np.savetxt 函数保存 test.csv 文件。

时间: 2024-05-13 18:14:03 浏览: 88
好的,以下是代码实现: ```python import numpy as np # 创建随机数据 data = np.random.rand(100, 5) # 保存为csv文件 np.savetxt('test.csv', data, delimiter=',') ``` 这段代码会生成一个名为 "test.csv" 的文件,里面包含 100 行、5 列的随机数据。你可以在代码中修改文件名和数据维度,以符合你的实际需求。
相关问题

用python使用 np.random 函数创建一个 test.csv 文件,其中包含 100 行和 5 列的一些随机数据。使用 np.savetxt 函数保存 test.csv 文件。

好的,以下是代码实现: ```python import numpy as np # 生成随机数据 data = np.random.rand(100, 5) # 保存为csv文件 np.savetxt('test.csv', data, delimiter=',') ``` 这段代码会生成一个包含 100 行 5 列随机数据的 csv 文件,文件名为 test.csv,使用逗号作为分隔符。你可以根据需要修改文件名和数据维度。

class RNN: def init(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size # 初始化参数 self.Wxh = np.random.randn(hidden_size, input_size) * 0.01 # 输入层到隐藏层的权重矩阵 self.Whh = np.random.randn(hidden_size, hidden_size) * 0.01 # 隐藏层到隐藏层的权重矩阵 self.Why = np.random.randn(output_size, hidden_size) * 0.01 # 隐藏层到输出层的权重矩阵 self.bh = np.zeros((hidden_size, 1)) # 隐藏层偏置 self.by = np.zeros((output_size, 1)) # 输出层偏置 # 初始化隐藏状态 self.h = np.zeros((hidden_size, 1)) def forward(self, x): # 更新隐藏状态 self.h = np.tanh(np.dot(self.Wxh, x) + np.dot(self.Whh, self.h) + self.bh) # 计算输出 y = np.dot(self.Why, self.h) + self.by # 返回输出和隐藏状态 return y, self.h def backward(self, x, y, target, learning_rate): # 计算输出误差 dy = y - target # 计算隐藏状态误差 dh = np.dot(self.Why.T, dy) * (1 - self.h ** 2) # 计算权重和偏置的梯度 dWhy = np.dot(dy, self.h.T) dby = np.sum(dy, axis=1, keepdims=True) dWxh = np.dot(dh, x.T) dWhh = np.dot(dh, self.h.T) dbh = np.sum(dh, axis=1, keepdims=True) # 更新权重和偏置 self.Why -= learning_rate * dWhy self.by -= learning_rate * dby self.Wxh -= learning_rate * dWxh self.Whh -= learning_rate * dWhh self.bh -= learning_rate * dbh 帮写一下用online_shopping_10_cats数据集训练以上模型train函数以及test函数

好的,这里是使用online_shopping_10_cats数据集训练以上模型的train函数以及test函数: ```python import numpy as np import pandas as pd import string from nltk.corpus import stopwords from nltk.tokenize import word_tokenize from sklearn.model_selection import train_test_split # 加载数据集 df = pd.read_csv("online_shopping_10_cats.csv") df = df[["Review Text", "Cat1"]] df = df.dropna() # 数据预处理 stop_words = set(stopwords.words('english') + list(string.punctuation)) def preprocess_text(text): tokens = word_tokenize(text.lower()) tokens = [t for t in tokens if t not in stop_words] return " ".join(tokens) df["Review Text"] = df["Review Text"].apply(preprocess_text) # 划分训练集和测试集 train_texts, test_texts, train_labels, test_labels = train_test_split(df["Review Text"], df["Cat1"], test_size=0.2) # 构建词典 word_to_index = {} index_to_word = {} for i, word in enumerate(set(" ".join(train_texts).split())): word_to_index[word] = i index_to_word[i] = word # 将文本转换为数字序列 def text_to_sequence(text): seq = [] for word in text.split(): seq.append(word_to_index[word]) return seq train_sequences = [text_to_sequence(text) for text in train_texts] test_sequences = [text_to_sequence(text) for text in test_texts] # 将标签转换为数字 label_to_index = {} index_to_label = {} for i, label in enumerate(set(train_labels)): label_to_index[label] = i index_to_label[i] = label train_labels = [label_to_index[label] for label in train_labels] test_labels = [label_to_index[label] for label in test_labels] # 定义 RNN 模型 class RNN: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size # 初始化参数 self.Wxh = np.random.randn(hidden_size, input_size) * 0.01 # 输入层到隐藏层的权重矩阵 self.Whh = np.random.randn(hidden_size, hidden_size) * 0.01 # 隐藏层到隐藏层的权重矩阵 self.Why = np.random.randn(output_size, hidden_size) * 0.01 # 隐藏层到输出层的权重矩阵 self.bh = np.zeros((hidden_size, 1)) # 隐藏层偏置 self.by = np.zeros((output_size, 1)) # 输出层偏置 # 初始化隐藏状态 self.h = np.zeros((hidden_size, 1)) def forward(self, x): # 更新隐藏状态 self.h = np.tanh(np.dot(self.Wxh, x) + np.dot(self.Whh, self.h) + self.bh) # 计算输出 y = np.dot(self.Why, self.h) + self.by # 返回输出和隐藏状态 return y, self.h def backward(self, x, y, target, learning_rate): # 计算输出误差 dy = y - target # 计算隐藏状态误差 dh = np.dot(self.Why.T, dy) * (1 - self.h ** 2) # 计算权重和偏置的梯度 dWhy = np.dot(dy, self.h.T) dby = np.sum(dy, axis=1, keepdims=True) dWxh = np.dot(dh, x.T) dWhh = np.dot(dh, self.h.T) dbh = np.sum(dh, axis=1, keepdims=True) # 更新权重和偏置 self.Why -= learning_rate * dWhy self.by -= learning_rate * dby self.Wxh -= learning_rate * dWxh self.Whh -= learning_rate * dWhh self.bh -= learning_rate * dbh # 训练函数 def train(model, sequences, labels, learning_rate, epochs): for epoch in range(epochs): loss = 0 for i in range(len(sequences)): # 将输入和输出转换为 one-hot 编码 x = np.zeros((len(sequences[i]), model.input_size)) for j, index in enumerate(sequences[i]): x[j, index] = 1 y = np.zeros((model.output_size, 1)) y[labels[i]] = 1 # 前向传播 output, hidden = model.forward(x.T) # 计算损失 loss += np.sum((output - y) ** 2) # 反向传播 model.backward(x.T, output, y, learning_rate) # 输出每个 epoch 的损失 print("Epoch {}/{} loss: {}".format(epoch + 1, epochs, loss / len(sequences))) # 测试函数 def test(model, sequences, labels): correct = 0 for i in range(len(sequences)): # 将输入转换为 one-hot 编码 x = np.zeros((len(sequences[i]), model.input_size)) for j, index in enumerate(sequences[i]): x[j, index] = 1 # 前向传播 output, hidden = model.forward(x.T) # 获取预测结果 prediction = np.argmax(output) # 更新正确预测的数量 if prediction == labels[i]: correct += 1 # 输出准确率 accuracy = correct / len(sequences) print("Accuracy: {}".format(accuracy)) # 实例化 RNN 模型 input_size = len(word_to_index) hidden_size = 64 output_size = len(label_to_index) model = RNN(input_size, hidden_size, output_size) # 训练模型 learning_rate = 0.01 epochs = 10 train(model, train_sequences, train_labels, learning_rate, epochs) # 测试模型 test(model, test_sequences, test_labels) ``` 在训练模型时,我们使用了 online_shopping_10_cats 数据集,并对数据进行了预处理、划分训练集和测试集、构建词典等操作。在训练过程中,我们使用了前向传播和反向传播算法来更新模型的权重和偏置,并输出了每个 epoch 的损失。在测试模型时,我们使用了测试集,计算出了模型的准确率。
阅读全文

相关推荐

from keras.models import Sequential from keras.layers import Dense from sklearn.preprocessing import MinMaxScaler import numpy as np from sklearn.model_selection import train_test_split # 加载数据集,18列数据 dataset = np.loadtxt(r'D:\python-learn\asd.csv', delimiter=",",skiprows=1) # 划分数据, 使用17列数据来预测最后一列 X = dataset[:,0:17] y = dataset[:,17] # 归一化 scaler = MinMaxScaler(feature_range=(0, 1)) X = scaler.fit_transform(X) y = scaler.fit_transform(y.reshape(-1, 1)) # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建模型 model = Sequential() model.add(Dense(64, input_dim=17, activation='relu')) model.add(Dense(32, activation='relu')) model.add(Dense(16, activation='relu')) model.add(Dense(8, activation='relu')) model.add(Dense(1, activation='linear')) # 编译模型, 选择MSE作为损失函数 model.compile(loss='mse', optimizer='adam') # 训练模型, 迭代1000次 model.fit(X_train, y_train, epochs=300, batch_size=32) score= model.evaluate(X_train, y_train) print('Test loss:', score) # 评估神经网络模型 score= model.evaluate(X_test,y_test) print('Test loss:', score) # 预测结果 dataset = np.loadtxt(r'D:\python-learn\testdata.csv', delimiter=",",skiprows=1) X = dataset[:,0:17] scaler = MinMaxScaler(feature_range=(0, 1)) X = scaler.fit_transform(X) y = scaler.fit_transform(y.reshape(-1, 1)) # pred_Y = model.predict(X) print("Predicted value:", pred_Y) from sklearn.metrics import mean_squared_error, r2_score # y_true是真实值,y_pred是预测值 # 计算均方误差 y_true = dataset[:,-1] mse = mean_squared_error(y_true, pred_Y) # 计算决定系数 r2 = r2_score(y_true, pred_Y) # 输出均方误差和决定系数 print("均方误差: %.2f" % mse) print("决定系数: %.2f" % r2) import matplotlib.pyplot as plt plt.scatter(y_true, pred_Y) # 添加x轴标签 plt.xlabel('真实值') # 添加y轴标签 plt.ylabel('预测值') # 添加图标题 plt.title('真实值与预测值的散点图') # 显示图像 plt.show()请你优化一下这段代码,尤其是归一化和反归一化过程

column_name = ["label"] column_name.extend(["pixel%d" % i for i in range(32 * 32 * 3)]) dataset = pd.read_csv('cifar_train.csv') #dataset = pd.read_csv('heart.csv') #dataset = pd.read_csv('iris.csuv') #sns.pairplot(dataset.iloc[:, 1:6]) #plt.show() #print(dataset.head()) #shuffled_data = dataset.sample(frac=1) #dataset=shuffled_data #index=[0,1,2,3,4,5,6,7,8,9,10,11,12,13] #dataset.columns=index dataset2=pd.read_csv('test.csv') #X = dataset.iloc[:, :30].values #y = dataset.iloc[:,30].values mm = MinMaxScaler() from sklearn.model_selection import train_test_split #X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=0) X_train =dataset.iloc[:,1:].values X_test = dataset2.iloc[:,1:].values y_train = dataset.iloc[:,0].values y_test = dataset2.iloc[:,0].values print(y_train) # 进行独热编码 def one_hot_encode_object_array(arr): # 去重获取全部的类别 uniques, ids = np.unique(arr, return_inverse=True) # 返回热编码的结果 return tf.keras.utils.to_categorical(ids, len(uniques)) #train_y_ohe=y_train #test_y_ohe=y_test # 训练集热编码 train_y_ohe = one_hot_encode_object_array(y_train) # 测试集热编码 test_y_ohe = one_hot_encode_object_array(y_test) # 利用sequential方式构建模型 from keras import backend as K def swish(x, beta=1.0): return x * K.sigmoid(beta * x) from keras import regularizers model = tf.keras.models.Sequential([ # 隐藏层1,激活函数是relu,输入大小有input_shape指定 tf.keras.layers.InputLayer(input_shape=(3072,)), # lambda(hanshu, output_shape=None, mask=None, arguments=None), #tf.keras.layers.Lambda(hanshu, output_shape=None, mask=None, arguments=None), tf.keras.layers.Dense(500, activation="relu"), # 隐藏层2,激活函数是relu tf.keras.layers.Dense(500, activation="relu"), # 输出层 tf.keras.layers.Dense(10, activation="softmax") ])

import pandas as pd import os from sklearn.model_selection import train_test_split from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy_score import joblib # 读取.csv文件 folder_path = r'D:\pythonProject\csv' file_list = os.listdir(folder_path) X_list = [] y_list = [] for file_name in file_list: subfolder_path = os.path.join(folder_path, file_name) if os.path.isdir(subfolder_path): # 进入子文件夹 os.chdir(subfolder_path) # 获取子文件夹中的.csv文件列表 csv_list = [f for f in os.listdir(subfolder_path) if f.endswith('.csv')] # 读取.csv文件 dfs = [] for csv_file in csv_list: df = pd.read_csv(csv_file, header=None) dfs.append(df) csv_folder_name = os.path.basename(subfolder_path) last_char = csv_folder_name[-1] wave = [0]*256 # form = [] records = dfs beat = [0]*len(records) i = 0 for wave in records: form = last_char # print(wave) # print(form) # beat[i] = [wave, form] X = wave y = form X_list.append(X) y_list.append(y) # print('beat[{}] ='.format(i), beat[i]) # print('len(beat[{}]) ='.format(i), len(beat[i])) i = i + 1 # print(X_list) # print(y_list) # 划分特征与标签 X = X_list y = y_list # 将数据集拆分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 构造随机森林模型 model = RandomForestClassifier(n_estimators=10000, random_state=42) # 训练模型 model.fit(X_train, y_train) # 在测试集上评估模型的性能 y_pred = model.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print("Accuracy:", accuracy)怎么改

最新推荐

recommend-type

(简单的编写方案)编写一个程序,生成一个10*10的随机矩阵并保存为文件(空格分隔行向量、换行分割列向量),再写程序将刚才保存的矩阵文件另存为CSV格式,用Excel或文本编辑器查看结果

在这个简单的编写方案中,我们探讨如何使用Python编程语言和NumPy库来生成一个10*10的随机矩阵,并将其保存为文件,然后再将其转换为CSV格式。NumPy是Python科学计算的重要库,它提供了高效的多维数组操作功能,非常...
recommend-type

Python分割训练集和测试集的方法示例

本文将详细讲解如何使用Python进行这一过程,特别是利用scikit-learn库中的`train_test_split`函数。 首先,让我们了解数据集。在本示例中,我们使用的是UCI机器学习库中的Wine数据集。这个数据集包含178个样本,每...
recommend-type

utlog.sqlite

utlog.sqlite
recommend-type

钢结构原理课程设计:露顶式平面钢闸门设计任务及指南

内容概要:本文档为《钢结构原理》课程设计任务及指导书,主要面向水利水电工程专业的学生。详细介绍了课程设计的目的,旨在帮助学生掌握钢结构基本理论以及相关规范的使用方法,培养独立分析和解决实际工程问题的能力。提供了设计所需的背景资料,如提升式平面钢闸门的相关参数及其启动装置、选用材料等。具体的设计内容包括但不限于了解任务要求,确定结构形式,设计面板及各类梁的设计计算。同时提出了明确的设计要求和成果形式。 适合人群:水利水电工程专业的本科生或研究生,尤其是已学习过《钢结构原理》课程的学生。 使用场景及目标:通过本任务的学习和实践,学生能加深对钢结构设计理念的理解,在实际操作过程中学会应用国家最新规范进行结构设计计算,提升个人的专业能力和项目经验。 阅读建议:结合课本内容及相关行业规范认真阅读和准备设计方案,注意手绘图纸的质量和技术报告的撰写要求。
recommend-type

易语言例程:用易核心支持库打造功能丰富的IE浏览框

资源摘要信息:"易语言-易核心支持库实现功能完善的IE浏览框" 易语言是一种简单易学的编程语言,主要面向中文用户。它提供了大量的库和组件,使得开发者能够快速开发各种应用程序。在易语言中,通过调用易核心支持库,可以实现功能完善的IE浏览框。IE浏览框,顾名思义,就是能够在一个应用程序窗口内嵌入一个Internet Explorer浏览器控件,从而实现网页浏览的功能。 易核心支持库是易语言中的一个重要组件,它提供了对IE浏览器核心的调用接口,使得开发者能够在易语言环境下使用IE浏览器的功能。通过这种方式,开发者可以创建一个具有完整功能的IE浏览器实例,它不仅能够显示网页,还能够支持各种浏览器操作,如前进、后退、刷新、停止等,并且还能够响应各种事件,如页面加载完成、链接点击等。 在易语言中实现IE浏览框,通常需要以下几个步骤: 1. 引入易核心支持库:首先需要在易语言的开发环境中引入易核心支持库,这样才能在程序中使用库提供的功能。 2. 创建浏览器控件:使用易核心支持库提供的API,创建一个浏览器控件实例。在这个过程中,可以设置控件的初始大小、位置等属性。 3. 加载网页:将浏览器控件与一个网页地址关联起来,即可在控件中加载显示网页内容。 4. 控制浏览器行为:通过易核心支持库提供的接口,可以控制浏览器的行为,如前进、后退、刷新页面等。同时,也可以响应浏览器事件,实现自定义的交互逻辑。 5. 调试和优化:在开发完成后,需要对IE浏览框进行调试,确保其在不同的操作和网页内容下均能够正常工作。对于性能和兼容性的问题需要进行相应的优化处理。 易语言的易核心支持库使得在易语言环境下实现IE浏览框变得非常方便,它极大地降低了开发难度,并且提高了开发效率。由于易语言的易用性,即使是初学者也能够在短时间内学会如何创建和操作IE浏览框,实现网页浏览的功能。 需要注意的是,由于IE浏览器已经逐渐被微软边缘浏览器(Microsoft Edge)所替代,使用IE核心的技术未来可能面临兼容性和安全性的挑战。因此,在实际开发中,开发者应考虑到这一点,并根据需求选择合适的浏览器控件实现技术。 此外,易语言虽然简化了编程过程,但其在功能上可能不如主流的编程语言(如C++, Java等)强大,且社区和技术支持相比其他语言可能较为有限,这些都是在选择易语言作为开发工具时需要考虑的因素。 文件名列表中的“IE类”可能是指包含实现IE浏览框功能的类库或者示例代码。在易语言中,类库是一组封装好的代码模块,其中包含了各种功能的实现。通过在易语言项目中引用这些类库,开发者可以简化开发过程,快速实现特定功能。而示例代码则为开发者提供了具体的实现参考,帮助理解和学习如何使用易核心支持库来创建IE浏览框。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

STM32F407ZG引脚功能深度剖析:掌握引脚分布与配置的秘密(全面解读)

![STM32F407ZG引脚功能深度剖析:掌握引脚分布与配置的秘密(全面解读)](https://tapit.vn/wp-content/uploads/2019/01/cubemx-peripheral-1024x545.png) # 摘要 本文全面介绍了STM32F407ZG微控制器的引脚特性、功能、配置和应用。首先概述了该芯片的引脚布局,然后详细探讨了标准外设、高级控制以及特殊功能引脚的不同配置和使用方法。在此基础上,文章深入分析了引脚模式配置、高级配置技巧,并提供了实际应用案例,如LED控制和串口通信。在设计方面,阐述了引脚布局策略、多层板设计及高密度引脚应用的解决方案。最后,介绍
recommend-type

给出文档中问题的答案代码

您提到的是需要编写MATLAB代码来实现文档中的实验任务。以下是根据文档内容编写的MATLAB代码示例: ```matlab % 上机2 实验代码 % 读取输入图像 inputImage = imread('your_face_image.jpg'); % 替换为您的图像文件路径 if size(inputImage, 1) < 1024 || size(inputImage, 2) < 1024 error('图像尺寸必须大于1024x1024'); end % 将彩色图像转换为灰度图像 grayImage = rgb2gray(inputImage); % 调整图像大小为5
recommend-type

Docker构建与运行Next.js应用的指南

资源摘要信息:"rivoltafilippo-next-main" 在探讨“rivoltafilippo-next-main”这一资源时,首先要从标题“rivoltafilippo-next”入手。这个标题可能是某一项目、代码库或应用的命名,结合描述中提到的Docker构建和运行命令,我们可以推断这是一个基于Docker的Node.js应用,特别是使用了Next.js框架的项目。Next.js是一个流行的React框架,用于服务器端渲染和静态网站生成。 描述部分提供了构建和运行基于Docker的Next.js应用的具体命令: 1. `docker build`命令用于创建一个新的Docker镜像。在构建镜像的过程中,开发者可以定义Dockerfile文件,该文件是一个文本文件,包含了创建Docker镜像所需的指令集。通过使用`-t`参数,用户可以为生成的镜像指定一个标签,这里的标签是`my-next-js-app`,意味着构建的镜像将被标记为`my-next-js-app`,方便后续的识别和引用。 2. `docker run`命令则用于运行一个Docker容器,即基于镜像启动一个实例。在这个命令中,`-p 3000:3000`参数指示Docker将容器内的3000端口映射到宿主机的3000端口,这样做通常是为了让宿主机能够访问容器内运行的应用。`my-next-js-app`是容器运行时使用的镜像名称,这个名称应该与构建时指定的标签一致。 最后,我们注意到资源包含了“TypeScript”这一标签,这表明项目可能使用了TypeScript语言。TypeScript是JavaScript的一个超集,它添加了静态类型定义的特性,能够帮助开发者更容易地维护和扩展代码,尤其是在大型项目中。 结合资源名称“rivoltafilippo-next-main”,我们可以推测这是项目的主目录或主仓库。通常情况下,开发者会将项目的源代码、配置文件、构建脚本等放在一个主要的目录中,这个目录通常命名为“main”或“src”等,以便于管理和维护。 综上所述,我们可以总结出以下几个重要的知识点: - Docker容器和镜像的概念以及它们之间的关系:Docker镜像是静态的只读模板,而Docker容器是从镜像实例化的动态运行环境。 - `docker build`命令的使用方法和作用:这个命令用于创建新的Docker镜像,通常需要一个Dockerfile来指定构建的指令和环境。 - `docker run`命令的使用方法和作用:该命令用于根据镜像启动一个或多个容器实例,并可指定端口映射等运行参数。 - Next.js框架的特点:Next.js是一个支持服务器端渲染和静态网站生成的React框架,适合构建现代的Web应用。 - TypeScript的作用和优势:TypeScript是JavaScript的一个超集,它提供了静态类型检查等特性,有助于提高代码质量和可维护性。 - 项目资源命名习惯:通常项目会有一个主目录,用来存放项目的源代码和核心配置文件,以便于项目的版本控制和团队协作。 以上内容基于给定的信息进行了深入的分析,为理解该项目的构建、运行方式以及技术栈提供了基础。在实际开发中,开发者应当参考更详细的文档和指南,以更高效地管理和部署基于Docker和TypeScript的Next.js项目。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依