cuda = True if torch.cuda.is_available() else False dev = torch.device("cpu") if not cuda else torch.device("cuda") print(f'Training on {dev} device') model = model.to(dev)是什么意思

时间: 2023-09-15 15:16:22 浏览: 85
这段代码用于设置训练设备(CPU或GPU)并将模型移动到对应的设备上进行训练。 首先,通过调用`torch.cuda.is_available()`函数判断是否存在可用的GPU设备。如果存在可用的GPU,则将`cuda`变量设置为`True`,否则设置为`False`。 接下来,通过条件判断语句,如果`cuda`为`False`(即没有可用的GPU),则将`dev`设备设置为CPU设备;如果`cuda`为`True`(即有可用的GPU),则将`dev`设备设置为CUDA设备。 然后,使用字符串格式化将训练设备信息打印输出到控制台。 最后,使用`model.to(dev)`将模型移动到指定的设备上。这样可以确保模型在训练过程中使用相应的设备进行计算,以提高计算效率和性能。 这段代码的作用是根据是否有可用的GPU设备,确定训练所使用的设备(CPU或GPU),并将模型移动到对应的设备上进行训练。
相关问题

https://github.com/weizhepei/CasRel中run.py解读

`run.py` 是 `CasRel` 项目的入口文件,用于训练和测试模型。以下是 `run.py` 的主要代码解读和功能说明: ### 导入依赖包和模块 首先,`run.py` 导入了所需的依赖包和模块,包括 `torch`、`numpy`、`argparse`、`logging` 等。 ```python import argparse import logging import os import random import time import numpy as np import torch from torch.utils.data import DataLoader, RandomSampler, SequentialSampler from casrel import CasRel from dataset import RE_Dataset from utils import init_logger, load_tokenizer, set_seed, collate_fn ``` ### 解析命令行参数 接下来,`run.py` 解析了命令行参数,包括训练数据路径、模型保存路径、预训练模型路径、学习率等参数。 ```python def set_args(): parser = argparse.ArgumentParser() parser.add_argument("--train_data", default=None, type=str, required=True, help="The input training data file (a text file).") parser.add_argument("--dev_data", default=None, type=str, required=True, help="The input development data file (a text file).") parser.add_argument("--test_data", default=None, type=str, required=True, help="The input testing data file (a text file).") parser.add_argument("--model_path", default=None, type=str, required=True, help="Path to save, load model") parser.add_argument("--pretrain_path", default=None, type=str, help="Path to pre-trained model") parser.add_argument("--vocab_path", default=None, type=str, required=True, help="Path to vocabulary") parser.add_argument("--batch_size", default=32, type=int, help="Batch size per GPU/CPU for training.") parser.add_argument("--gradient_accumulation_steps", default=1, type=int, help="Number of updates steps to accumulate before performing a backward/update pass.") parser.add_argument("--learning_rate", default=5e-5, type=float, help="The initial learning rate for Adam.") parser.add_argument("--num_train_epochs", default=3, type=int, help="Total number of training epochs to perform.") parser.add_argument("--max_seq_length", default=256, type=int, help="The maximum total input sequence length after tokenization. Sequences longer " "than this will be truncated, sequences shorter will be padded.") parser.add_argument("--warmup_proportion", default=0.1, type=float, help="Linear warmup over warmup_steps.") parser.add_argument("--weight_decay", default=0.01, type=float, help="Weight decay if we apply some.") parser.add_argument("--adam_epsilon", default=1e-8, type=float, help="Epsilon for Adam optimizer.") parser.add_argument("--max_grad_norm", default=1.0, type=float, help="Max gradient norm.") parser.add_argument("--logging_steps", type=int, default=500, help="Log every X updates steps.") parser.add_argument("--save_steps", type=int, default=500, help="Save checkpoint every X updates steps.") parser.add_argument("--seed", type=int, default=42, help="random seed for initialization") parser.add_argument("--device", type=str, default="cuda" if torch.cuda.is_available() else "cpu", help="selected device (default: cuda if available)") args = parser.parse_args() return args ``` ### 加载数据和模型 接下来,`run.py` 加载了训练、验证和测试数据,以及 `CasRel` 模型。 ```python def main(): args = set_args() init_logger() set_seed(args) tokenizer = load_tokenizer(args.vocab_path) train_dataset = RE_Dataset(args.train_data, tokenizer, args.max_seq_length) dev_dataset = RE_Dataset(args.dev_data, tokenizer, args.max_seq_length) test_dataset = RE_Dataset(args.test_data, tokenizer, args.max_seq_length) train_sampler = RandomSampler(train_dataset) train_dataloader = DataLoader(train_dataset, sampler=train_sampler, batch_size=args.batch_size, collate_fn=collate_fn) dev_sampler = SequentialSampler(dev_dataset) dev_dataloader = DataLoader(dev_dataset, sampler=dev_sampler, batch_size=args.batch_size, collate_fn=collate_fn) test_sampler = SequentialSampler(test_dataset) test_dataloader = DataLoader(test_dataset, sampler=test_sampler, batch_size=args.batch_size, collate_fn=collate_fn) model = CasRel(args) if args.pretrain_path: model.load_state_dict(torch.load(args.pretrain_path, map_location="cpu")) logging.info(f"load pre-trained model from {args.pretrain_path}") model.to(args.device) ``` ### 训练模型 接下来,`run.py` 开始训练模型,包括前向传播、反向传播、梯度更新等步骤。 ```python optimizer = torch.optim.Adam([{'params': model.bert.parameters(), 'lr': args.learning_rate}, {'params': model.subject_fc.parameters(), 'lr': args.learning_rate}, {'params': model.object_fc.parameters(), 'lr': args.learning_rate}, {'params': model.predicate_fc.parameters(), 'lr': args.learning_rate}, {'params': model.linear.parameters(), 'lr': args.learning_rate}], lr=args.learning_rate, eps=args.adam_epsilon, weight_decay=args.weight_decay) total_steps = len(train_dataloader) // args.gradient_accumulation_steps * args.num_train_epochs warmup_steps = int(total_steps * args.warmup_proportion) scheduler = torch.optim.lr_scheduler.LambdaLR( optimizer, lr_lambda=lambda epoch: 1 / (1 + 0.05 * (epoch - 1)) ) global_step = 0 best_f1 = 0 for epoch in range(args.num_train_epochs): for step, batch in enumerate(train_dataloader): model.train() batch = tuple(t.to(args.device) for t in batch) inputs = { "input_ids": batch[0], "attention_mask": batch[1], "token_type_ids": batch[2], "subj_pos": batch[3], "obj_pos": batch[4], "subj_type": batch[5], "obj_type": batch[6], "subj_label": batch[7], "obj_label": batch[8], "predicate_label": batch[9], } outputs = model(**inputs) loss = outputs[0] loss.backward() if (step + 1) % args.gradient_accumulation_steps == 0: torch.nn.utils.clip_grad_norm_(model.parameters(), args.max_grad_norm) optimizer.step() scheduler.step() optimizer.zero_grad() global_step += 1 if global_step % args.logging_steps == 0: logging.info(f"Epoch:[{epoch + 1}]/[{args.num_train_epochs}] Step:[{global_step}] " f"Train loss:{loss.item():.6f}") if global_step % args.save_steps == 0: f1 = evaluate(model, dev_dataloader, args) if f1 > best_f1: best_f1 = f1 torch.save(model.state_dict(), os.path.join(args.model_path, "best_model.bin")) logging.info(f"Save model at step [{global_step}] with best f1 {best_f1:.4f}") ``` ### 测试模型 最后,`run.py` 对模型进行测试,输出模型在测试集上的预测结果。 ```python model.load_state_dict(torch.load(os.path.join(args.model_path, "best_model.bin"), map_location="cpu")) logging.info(f"load best model from {os.path.join(args.model_path, 'best_model.bin')}") f1, precision, recall = evaluate(model, test_dataloader, args) logging.info(f"Test f1:{f1:.4f} precision:{precision:.4f} recall:{recall:.4f}") ``` 以上就是 `run.py` 的主要代码解读和功能说明。

可以将seg.train转化成未封装好的代码吗

当然可以,以下是将 `seg.train` 转化为未封装的代码的步骤: 1. 导入相关库 ```python import json import random from collections import Counter from functools import partial from pathlib import Path from typing import List, Tuple import numpy as np import torch from torch.utils.data import Dataset, DataLoader from tqdm import tqdm ``` 2. 准备数据 ```python def load_data(file_path: str) -> List[Tuple[List[str], List[str]]]: """加载数据""" with open(file_path, "r", encoding="utf-8") as f: data = f.read().splitlines() data = [line.split("\t") for line in data] return [(text.split(), label.split()) for text, label in data] train_data = load_data("train.txt") valid_data = load_data("dev.txt") test_data = load_data("test.txt") ``` 3. 构建词表 ```python def build_vocab(data: List[Tuple[List[str], List[str]]], min_freq: int = 2) -> Tuple[Dict[str, int], Dict[int, str]]: """构建词表""" counter = Counter([word for text, _ in data for word in text]) counter = {word: freq for word, freq in counter.items() if freq >= min_freq} word_list = sorted(list(counter.keys())) word2id = {"[PAD]": 0, "[UNK]": 1, "[CLS]": 2, "[SEP]": 3} for word in word_list: word2id[word] = len(word2id) id2word = {id: word for word, id in word2id.items()} return word2id, id2word word2id, id2word = build_vocab(train_data) ``` 4. 定义数据处理函数 ```python def process_data(data: List[Tuple[List[str], List[str]]], word2id: Dict[str, int]) -> List[Tuple[List[int], List[int]]]: """数据处理函数""" return [(torch.tensor([word2id.get(word, word2id["[UNK]"]) for word in text]), torch.tensor([int(label) for label in labels])) for text, labels in data] train_data = process_data(train_data, word2id) valid_data = process_data(valid_data, word2id) test_data = process_data(test_data, word2id) ``` 5. 定义数据集和数据加载器 ```python class SegDataset(Dataset): """分词数据集""" def __init__(self, data: List[Tuple[List[int], List[int]]]): self.data = data def __len__(self): return len(self.data) def __getitem__(self, index: int) -> Tuple[torch.Tensor, torch.Tensor]: return self.data[index] def collate_fn(batch: List[Tuple[torch.Tensor, torch.Tensor]]) -> Tuple[torch.Tensor, torch.Tensor]: """数据处理函数""" texts = [item[0] for item in batch] labels = [item[1] for item in batch] max_len = max([len(text) for text in texts]) texts = [torch.cat([text, torch.tensor([0] * (max_len - len(text)))]) for text in texts] labels = [torch.cat([label, torch.tensor([-1] * (max_len - len(label)))]) for label in labels] mask = torch.tensor([[1] * len(text) + [0] * (max_len - len(text)) for text in texts]) return torch.stack(texts), torch.stack(labels), mask train_dataset = SegDataset(train_data) valid_dataset = SegDataset(valid_data) test_dataset = SegDataset(test_data) train_loader = DataLoader(train_dataset, batch_size=16, shuffle=True, collate_fn=collate_fn) valid_loader = DataLoader(valid_dataset, batch_size=16, shuffle=False, collate_fn=collate_fn) test_loader = DataLoader(test_dataset, batch_size=16, shuffle=False, collate_fn=collate_fn) ``` 6. 定义模型 ```python class SegModel(torch.nn.Module): """分词模型""" def __init__(self, vocab_size: int, embedding_size: int, hidden_size: int): super().__init__() self.embedding = torch.nn.Embedding(vocab_size, embedding_size, padding_idx=0) self.lstm = torch.nn.LSTM(embedding_size, hidden_size, batch_first=True, bidirectional=True) self.linear = torch.nn.Linear(2 * hidden_size, 1) self.sigmoid = torch.nn.Sigmoid() def forward(self, inputs: torch.Tensor, mask: torch.Tensor) -> torch.Tensor: embeddings = self.embedding(inputs) outputs, _ = self.lstm(embeddings) logits = self.linear(outputs) logits = logits.squeeze(-1) logits = self.sigmoid(logits) logits = logits * mask return logits model = SegModel(len(word2id), 128, 256) ``` 7. 定义训练函数 ```python def train(model: torch.nn.Module, optimizer: torch.optim.Optimizer, data_loader: DataLoader, device: str): """训练函数""" model.train() loss_func = torch.nn.BCELoss(reduction="none") total_loss = 0 total_num = 0 for texts, labels, mask in tqdm(data_loader, desc="Train"): texts = texts.to(device) labels = labels.float().to(device) mask = mask.float().to(device) logits = model(texts, mask) loss = loss_func(logits, labels) loss = (loss * mask).sum() / mask.sum() optimizer.zero_grad() loss.backward() optimizer.step() total_loss += loss.item() * mask.sum().item() total_num += mask.sum().item() return total_loss / total_num def evaluate(model: torch.nn.Module, data_loader: DataLoader, device: str): """评估函数""" model.eval() loss_func = torch.nn.BCELoss(reduction="none") total_loss = 0 total_num = 0 with torch.no_grad(): for texts, labels, mask in tqdm(data_loader, desc="Evaluate"): texts = texts.to(device) labels = labels.float().to(device) mask = mask.float().to(device) logits = model(texts, mask) loss = loss_func(logits, labels) loss = (loss * mask).sum() / mask.sum() total_loss += loss.item() * mask.sum().item() total_num += mask.sum().item() return total_loss / total_num def train_and_evaluate(model: torch.nn.Module, optimizer: torch.optim.Optimizer, train_loader: DataLoader, valid_loader: DataLoader, num_epochs: int, device: str): """训练和评估函数""" best_valid_loss = float("inf") for epoch in range(num_epochs): train_loss = train(model, optimizer, train_loader, device) valid_loss = evaluate(model, valid_loader, device) print(f"Epoch [{epoch + 1}/{num_epochs}], Train Loss: {train_loss:.4f}, Valid Loss: {valid_loss:.4f}") if valid_loss < best_valid_loss: best_valid_loss = valid_loss torch.save(model.state_dict(), "best_model.pt") model.load_state_dict(torch.load("best_model.pt")) test_loss = evaluate(model, test_loader, device) print(f"Test Loss: {test_loss:.4f}") ``` 8. 训练模型 ```python device = "cuda" if torch.cuda.is_available() else "cpu" model = model.to(device) optimizer = torch.optim.Adam(model.parameters()) train_and_evaluate(model, optimizer, train_loader, valid_loader, 10, device) ``` 以上就是将 `seg.train` 转化为未封装的代码的步骤,你可以根据需要进行修改和调整。
阅读全文

相关推荐

最新推荐

recommend-type

Deep-Learning-with-PyTorch-by-Eli-Stevens-Luca-Antiga-Thomas-Viehmann

Deep_Learning_with_PyTorch_by_Eli_Stevens_Luca_Antiga_Thomas_Viehmann
recommend-type

直连设备(单片机)端token自动计算(micropython)

直连设备(单片机)端token自动计算(micropython)
recommend-type

基于FPGA的IIR滤波器数字滤波器无限脉冲响应verilog vhdl自适应滤波器实物FIR抽取内插上下变频CIC滤波器 如果需要上述滤波器或者其他滤波器都可以右下角加好友加好友定制 本设计是基于

基于FPGA的IIR滤波器数字滤波器无限脉冲响应verilog vhdl自适应滤波器实物FIR抽取内插上下变频CIC滤波器 如果需要上述滤波器或者其他滤波器都可以右下角加好友加好友定制。 本设计是基于FPGA的IIR滤波器,VERILOG HDL和VHDL的程序都有,下面图示的滤波器设计指标是8阶的低通滤波器,采样率是1M HZ,截止频率是100K HZ可以根据你们的要求定制不同指标的滤波器; FIR滤波器,自适应滤波器也可以定做 用FPGA实现的IIR滤波器的实测图。 用FPGA实现IIR滤波器的原理图。 Simulink的仿真图,滤波前的时域信号波形放在了第二栏,滤波后的时域波形放在了第一栏。 滤波前后信号的频谱图。 IIR滤波器的零极点图 第一栏是90K Hz正弦波与110K Hz正弦波再叠加一个直流量的时域混合波形,第二栏是时域波形的频谱,从频谱中可以清晰看到三个频率分量。 滤波器最终输出结果的时域与频域波形。 simulink仿真模型。
recommend-type

【Python】Python爬虫实战--小猪短租爬虫_pgj.zip

【Python】Python爬虫实战--小猪短租爬虫_pgj
recommend-type

Python调试器vardbg:动画可视化算法流程

资源摘要信息:"vardbg是一个专为Python设计的简单调试器和事件探查器,它通过生成程序流程的动画可视化效果,增强了算法学习的直观性和互动性。该工具适用于Python 3.6及以上版本,并且由于使用了f-string特性,它要求用户的Python环境必须是3.6或更高。 vardbg是在2019年Google Code-in竞赛期间为CCExtractor项目开发而创建的,它能够跟踪每个变量及其内容的历史记录,并且还能跟踪容器内的元素(如列表、集合和字典等),以便用户能够深入了解程序的状态变化。" 知识点详细说明: 1. Python调试器(Debugger):调试器是开发过程中用于查找和修复代码错误的工具。 vardbg作为一个Python调试器,它为开发者提供了跟踪代码执行、检查变量状态和控制程序流程的能力。通过运行时监控程序,调试器可以发现程序运行时出现的逻辑错误、语法错误和运行时错误等。 2. 事件探查器(Event Profiler):事件探查器是对程序中的特定事件或操作进行记录和分析的工具。 vardbg作为一个事件探查器,可以监控程序中的关键事件,例如变量值的变化和函数调用等,从而帮助开发者理解和优化代码执行路径。 3. 动画可视化效果:vardbg通过生成程序流程的动画可视化图像,使得算法的执行过程变得生动和直观。这对于学习算法的初学者来说尤其有用,因为可视化手段可以提高他们对算法逻辑的理解,并帮助他们更快地掌握复杂的概念。 4. Python版本兼容性:由于vardbg使用了Python的f-string功能,因此它仅兼容Python 3.6及以上版本。f-string是一种格式化字符串的快捷语法,提供了更清晰和简洁的字符串表达方式。开发者在使用vardbg之前,必须确保他们的Python环境满足版本要求。 5. 项目背景和应用:vardbg是在2019年的Google Code-in竞赛中为CCExtractor项目开发的。Google Code-in是一项面向13到17岁的学生开放的竞赛活动,旨在鼓励他们参与开源项目。CCExtractor是一个用于从DVD、Blu-Ray和视频文件中提取字幕信息的软件。vardbg的开发过程中,该项目不仅为学生提供了一个实际开发经验的机会,也展示了学生对开源软件贡献的可能性。 6. 特定功能介绍: - 跟踪变量历史记录:vardbg能够追踪每个变量在程序执行过程中的历史记录,使得开发者可以查看变量值的任何历史状态,帮助诊断问题所在。 - 容器元素跟踪:vardbg支持跟踪容器类型对象内部元素的变化,包括列表、集合和字典等数据结构。这有助于开发者理解数据结构在算法执行过程中的具体变化情况。 通过上述知识点的详细介绍,可以了解到vardbg作为一个针对Python的调试和探查工具,在提供程序流程动画可视化效果的同时,还通过跟踪变量和容器元素等功能,为Python学习者和开发者提供了强大的支持。它不仅提高了学习算法的效率,也为处理和优化代码提供了强大的辅助功能。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【IT设备维保管理入门指南】:如何制定有效的维护计划,提升设备性能与寿命

![【IT设备维保管理入门指南】:如何制定有效的维护计划,提升设备性能与寿命](https://docs.plesk.com/en-US/onyx/administrator-guide/images/78798.webp) # 摘要 本文全面探讨了IT设备维保管理的各个方面,从理论基础到实践案例,再到技术革新和未来展望。首先概述了维保计划的重要性,强调了其在延长设备生命周期和提升性能稳定性方面的作用。接着,文中详细论述了维保计划的制定原则,包括预防性维护、设备分类及成本效益分析等。通过分析不同行业的实践案例,本文揭示了成功维保计划的关键因素,并提出了效果评估与改进的策略。随后,探讨了性能监
recommend-type

python爬取网页链接,url = “https://koubei.16888.com/57233/0-0-0-0”

在Python中,使用如`requests`库来发送HTTP请求并抓取网页链接是比较常见的做法。以下是如何使用`requests`和BeautifulSoup库(用于解析HTML)来爬取给定URL上的信息: 首先,确保已安装`requests`和`beautifulsoup4`库,如果未安装可以使用以下命令安装: ```bash pip install requests beautifulsoup4 ``` 然后,你可以编写以下Python脚本来爬取指定URL的内容: ```python import requests from bs4 import BeautifulSoup # 定义要
recommend-type

掌握Web开发:Udacity天气日记项目解析

资源摘要信息: "Udacity-Weather-Journal:Web开发路线的Udacity纳米度-项目2" 知识点: 1. Udacity:Udacity是一个提供在线课程和纳米学位项目的教育平台,涉及IT、数据科学、人工智能、机器学习等众多领域。纳米学位是Udacity提供的一种专业课程认证,通过一系列课程的学习和实践项目,帮助学习者掌握专业技能,并提供就业支持。 2. Web开发路线:Web开发是构建网页和网站的应用程序的过程。学习Web开发通常包括前端开发(涉及HTML、CSS、JavaScript等技术)和后端开发(可能涉及各种服务器端语言和数据库技术)的学习。Web开发路线指的是在学习过程中所遵循的路径和进度安排。 3. 纳米度项目2:在Udacity提供的学习路径中,纳米学位项目通常是实践导向的任务,让学生能够在真实世界的情境中应用所学的知识。这些项目往往需要学生完成一系列具体任务,如开发一个网站、创建一个应用程序等,以此来展示他们所掌握的技能和知识。 4. Udacity-Weather-Journal项目:这个项目听起来是关于创建一个天气日记的Web应用程序。在完成这个项目时,学习者可能需要运用他们关于Web开发的知识,包括前端设计(使用HTML、CSS、Bootstrap等框架设计用户界面),使用JavaScript进行用户交互处理,以及可能的后端开发(如果需要保存用户数据,可能会使用数据库技术如SQLite、MySQL或MongoDB)。 5. 压缩包子文件:这里提到的“压缩包子文件”可能是一个笔误或误解,它可能实际上是指“压缩包文件”(Zip archive)。在文件名称列表中的“Udacity-Weather-journal-master”可能意味着该项目的所有相关文件都被压缩在一个名为“Udacity-Weather-journal-master.zip”的压缩文件中,这通常用于将项目文件归档和传输。 6. 文件名称列表:文件名称列表提供了项目文件的结构概览,它可能包含HTML、CSS、JavaScript文件以及可能的服务器端文件(如Python、Node.js文件等),此外还可能包括项目依赖文件(如package.json、requirements.txt等),以及项目文档和说明。 7. 实际项目开发流程:在开发像Udacity-Weather-Journal这样的项目时,学习者可能需要经历需求分析、设计、编码、测试和部署等阶段。在每个阶段,他们需要应用他们所学的理论知识,并解决在项目开发过程中遇到的实际问题。 8. 技术栈:虽然具体的技术栈未在标题和描述中明确提及,但一个典型的Web开发项目可能涉及的技术包括但不限于HTML5、CSS3、JavaScript(可能使用框架如React.js、Angular.js或Vue.js)、Bootstrap、Node.js、Express.js、数据库技术(如上所述),以及版本控制系统如Git。 9. 学习成果展示:完成这样的项目后,学习者将拥有一个可部署的Web应用程序,以及一个展示他们技术能力的项目案例,这些对于未来的求职和职业发展都是有价值的。 10. 知识点整合:在进行Udacity-Weather-Journal项目时,学习者需要将所学的多个知识点融合在一起,包括前端设计、用户体验、后端逻辑处理、数据存储和检索、以及可能的API调用等。 总结来说,Udacity-Weather-Journal项目是Udacity Web开发纳米学位课程中的一个重要实践环节,它要求学习者运用他们所学到的前端和后端开发技能,完成一个具体的Web应用程序项目。通过完成这样的项目,学习者能够将理论知识转化为实践经验,并为他们未来在IT行业的职业发展打下坚实的基础。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依