transformer模型实战

时间: 2024-01-29 16:10:48 浏览: 104
Transformer模型实战可以参考哈佛大学2018年4月的一个实现版本。该实现版本详细解释了Transformer模型的整体结构和细节,并附上了模型局部图和类的依赖关系图,使得解释更加全面和详细。在Transformer模型中,Self-Attention在Encoder和Decoder内部都有应用。
相关问题

使用pytorch实现transformer模型实战案例

好的,下面提供一个使用PyTorch实现Transformer模型的实战案例。 首先,我们需要导入必要的库和模块: ```python import math import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable ``` 接着,我们定义一些超参数: ```python d_model = 512 # 模型维度 n_layers = 6 # 层数 n_heads = 8 # 头数 dropout = 0.1 # Dropout概率 ``` 定义位置编码函数: ```python class PositionalEncoding(nn.Module): def __init__(self, d_model, dropout=0.1, max_len=5000): super(PositionalEncoding, self).__init__() self.dropout = nn.Dropout(p=dropout) pe = torch.zeros(max_len, d_model) position = torch.arange(0, max_len).unsqueeze(1).float() div_term = torch.exp(torch.arange(0, d_model, 2).float() * -(math.log(10000.0) / d_model)) pe[:, 0::2] = torch.sin(position * div_term) pe[:, 1::2] = torch.cos(position * div_term) pe = pe.unsqueeze(0) self.register_buffer('pe', pe) def forward(self, x): x = x + Variable(self.pe[:, :x.size(1)], requires_grad=False) return self.dropout(x) ``` 定义多头自注意力机制模块: ```python class MultiHeadedAttention(nn.Module): def __init__(self, n_heads, d_model, dropout=0.1): super(MultiHeadedAttention, self).__init__() assert d_model % n_heads == 0 self.d_k = d_model // n_heads self.n_heads = n_heads self.linears = nn.ModuleList([nn.Linear(d_model, d_model) for _ in range(4)]) self.dropout = nn.Dropout(p=dropout) def attention(self, q, k, v, mask=None, dropout=None): scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(self.d_k) if mask is not None: scores = scores.masked_fill(mask == 0, -1e9) p_attn = F.softmax(scores, dim=-1) if dropout is not None: p_attn = dropout(p_attn) return torch.matmul(p_attn, v), p_attn def forward(self, query, key, value, mask=None): if mask is not None: mask = mask.unsqueeze(1) nbatches = query.size(0) # 1) Do all the linear projections in batch from d_model => h x d_k query, key, value = [l(x).view(nbatches, -1, self.n_heads, self.d_k).transpose(1, 2) for l, x in zip(self.linears, (query, key, value))] # 2) Apply attention on all the projected vectors in batch. x, attn = self.attention(query, key, value, mask=mask, dropout=self.dropout) # 3) "Concat" using a view and apply a final linear. x = x.transpose(1, 2).contiguous().view(nbatches, -1, self.n_heads * self.d_k) return self.linears[-1](x), attn ``` 定义前馈神经网络模块: ```python class PositionwiseFeedForward(nn.Module): def __init__(self, d_model, d_ff, dropout=0.1): super(PositionwiseFeedForward, self).__init__() self.w_1 = nn.Linear(d_model, d_ff) self.w_2 = nn.Linear(d_ff, d_model) self.dropout = nn.Dropout(dropout) def forward(self, x): return self.w_2(self.dropout(F.relu(self.w_1(x)))) ``` 定义一个Transformer层模块: ```python class TransformerLayer(nn.Module): def __init__(self, d_model, n_heads, dropout=0.1): super(TransformerLayer, self).__init__() self.self_attn = MultiHeadedAttention(n_heads, d_model, dropout=dropout) self.feed_forward = PositionwiseFeedForward(d_model, d_model*4, dropout=dropout) self.sublayer = nn.ModuleList([SublayerConnection(d_model, dropout=dropout) for _ in range(2)]) self.d_model = d_model def forward(self, x, mask): x, _ = self.self_attn(x, x, x, mask=mask) x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask=mask)) x = self.sublayer[1](x, self.feed_forward) return x ``` 定义一个包含若干个Transformer层的Transformer模块: ```python class Transformer(nn.Module): def __init__(self, n_layers, d_model, n_heads, dropout=0.1): super(Transformer, self).__init__() self.layers = nn.ModuleList([TransformerLayer(d_model, n_heads, dropout=dropout) for _ in range(n_layers)]) self.norm = nn.LayerNorm(d_model) def forward(self, x, mask): for layer in self.layers: x = layer(x, mask) return self.norm(x) ``` 定义一个SublayerConnection模块,用于连接子层: ```python class SublayerConnection(nn.Module): def __init__(self, size, dropout=0.1): super(SublayerConnection, self).__init__() self.norm = nn.LayerNorm(size) self.dropout = nn.Dropout(dropout) def forward(self, x, sublayer): return x + self.dropout(sublayer(self.norm(x))) ``` 最后,我们可以使用这些模块来构建一个Transformer模型: ```python class TransformerModel(nn.Module): def __init__(self, vocab_size, d_model, n_layers, n_heads, dropout=0.1): super(TransformerModel, self).__init__() self.embedding = nn.Embedding(vocab_size, d_model) self.pos_encoder = PositionalEncoding(d_model, dropout=dropout) self.transformer = Transformer(n_layers, d_model, n_heads, dropout=dropout) self.decoder = nn.Linear(d_model, vocab_size) self.init_weights() def init_weights(self): initrange = 0.1 self.embedding.weight.data.uniform_(-initrange, initrange) self.decoder.bias.data.zero_() self.decoder.weight.data.uniform_(-initrange, initrange) def forward(self, src, mask): src = self.embedding(src) src = self.pos_encoder(src) output = self.transformer(src, mask) output = self.decoder(output) return output ``` 以上就是使用PyTorch实现Transformer模型的实战案例。可以根据具体的需求进行修改和扩展。

帮我写一个transformer模型的实战案例代码,使用pytorch框架

好的,下面是一个基于PyTorch框架实现的Transformer模型的实战案例代码,以机器翻译为例: ```python import torch import torch.nn as nn import torch.optim as optim import torch.nn.functional as F from torch.utils.data import Dataset, DataLoader # 定义超参数 MAX_LENGTH = 10 # 最大句子长度 BATCH_SIZE = 64 # 批量大小 EMBEDDING_DIM = 256 # 词向量维度 HIDDEN_DIM = 512 # 隐藏层维度 N_LAYERS = 6 # Transformer层数 N_HEADS = 8 # 注意力头数 DROPOUT = 0.1 # Dropout概率 LEARNING_RATE = 0.0005 # 学习率 N_EPOCHS = 10 # 训练轮数 # 定义数据集 class TranslationDataset(Dataset): def __init__(self, path): self.pairs = [] with open(path, 'r', encoding='utf-8') as f: for line in f: src, tgt = line.strip().split('\t') self.pairs.append((src, tgt)) def __len__(self): return len(self.pairs) def __getitem__(self, index): src, tgt = self.pairs[index] src_tokens = [int(x) for x in src.split()] tgt_tokens = [int(x) for x in tgt.split()] src_len = len(src_tokens) tgt_len = len(tgt_tokens) src_padding = [0] * (MAX_LENGTH - src_len) tgt_padding = [0] * (MAX_LENGTH - tgt_len) src_tokens += src_padding tgt_tokens += tgt_padding return (torch.LongTensor(src_tokens), torch.LongTensor(tgt_tokens)) # 定义Transformer模型 class Transformer(nn.Module): def __init__(self, input_dim, output_dim, embedding_dim, hidden_dim, n_layers, n_heads, dropout): super().__init__() self.input_embedding = nn.Embedding(input_dim, embedding_dim) self.output_embedding = nn.Embedding(output_dim, embedding_dim) self.encoder = Encoder(embedding_dim, hidden_dim, n_layers, n_heads, dropout) self.decoder = Decoder(embedding_dim, hidden_dim, n_layers, n_heads, dropout) self.output_projection = nn.Linear(hidden_dim, output_dim) def forward(self, src, tgt): src_embedded = self.input_embedding(src) tgt_embedded = self.output_embedding(tgt) encoder_output, encoder_attention = self.encoder(src_embedded) decoder_output, decoder_attention = self.decoder(tgt_embedded, encoder_output) output = self.output_projection(decoder_output) return output, encoder_attention, decoder_attention class Encoder(nn.Module): def __init__(self, embedding_dim, hidden_dim, n_layers, n_heads, dropout): super().__init__() self.layers = nn.ModuleList([EncoderLayer(embedding_dim, hidden_dim, n_heads, dropout) for _ in range(n_layers)]) self.dropout = nn.Dropout(dropout) def forward(self, x): attention_weights = [] for layer in self.layers: x, attention = layer(x) attention_weights.append(attention) return x, torch.stack(attention_weights) class EncoderLayer(nn.Module): def __init__(self, embedding_dim, hidden_dim, n_heads, dropout): super().__init__() self.self_attention = MultiHeadAttention(embedding_dim, n_heads) self.layer_norm1 = nn.LayerNorm(embedding_dim) self.positionwise_feedforward = PositionwiseFeedforward(embedding_dim, hidden_dim, dropout) self.layer_norm2 = nn.LayerNorm(embedding_dim) self.dropout = nn.Dropout(dropout) def forward(self, x): residual = x x, attention = self.self_attention(x, x, x) x = self.layer_norm1(residual + self.dropout(x)) residual = x x = self.positionwise_feedforward(x) x = self.layer_norm2(residual + self.dropout(x)) return x, attention class Decoder(nn.Module): def __init__(self, embedding_dim, hidden_dim, n_layers, n_heads, dropout): super().__init__() self.layers = nn.ModuleList([DecoderLayer(embedding_dim, hidden_dim, n_heads, dropout) for _ in range(n_layers)]) self.dropout = nn.Dropout(dropout) def forward(self, x, encoder_output): attention_weights = [] for layer in self.layers: x, attention = layer(x, encoder_output) attention_weights.append(attention) return x, torch.stack(attention_weights) class DecoderLayer(nn.Module): def __init__(self, embedding_dim, hidden_dim, n_heads, dropout): super().__init__() self.self_attention = MultiHeadAttention(embedding_dim, n_heads) self.layer_norm1 = nn.LayerNorm(embedding_dim) self.encoder_attention = MultiHeadAttention(embedding_dim, n_heads) self.layer_norm2 = nn.LayerNorm(embedding_dim) self.positionwise_feedforward = PositionwiseFeedforward(embedding_dim, hidden_dim, dropout) self.layer_norm3 = nn.LayerNorm(embedding_dim) self.dropout = nn.Dropout(dropout) def forward(self, x, encoder_output): residual = x x, self_attention = self.self_attention(x, x, x) x = self.layer_norm1(residual + self.dropout(x)) residual = x x, encoder_attention = self.encoder_attention(x, encoder_output, encoder_output) x = self.layer_norm2(residual + self.dropout(x)) residual = x x = self.positionwise_feedforward(x) x = self.layer_norm3(residual + self.dropout(x)) return x, encoder_attention class MultiHeadAttention(nn.Module): def __init__(self, embedding_dim, n_heads): super().__init__() self.embedding_dim = embedding_dim self.n_heads = n_heads self.head_dim = embedding_dim // n_heads self.q_linear = nn.Linear(embedding_dim, embedding_dim) self.k_linear = nn.Linear(embedding_dim, embedding_dim) self.v_linear = nn.Linear(embedding_dim, embedding_dim) self.out_linear = nn.Linear(embedding_dim, embedding_dim) def forward(self, query, key, value): batch_size = query.size(0) Q = self.q_linear(query).view(batch_size, -1, self.n_heads, self.head_dim).transpose(1, 2) K = self.k_linear(key).view(batch_size, -1, self.n_heads, self.head_dim).transpose(1, 2) V = self.v_linear(value).view(batch_size, -1, self.n_heads, self.head_dim).transpose(1, 2) attention_weights = torch.matmul(Q, K.transpose(-2, -1)) / (self.head_dim ** 0.5) attention_weights = F.softmax(attention_weights, dim=-1) output = torch.matmul(self.dropout(attention_weights), V) output = output.transpose(1, 2).contiguous().view(batch_size, -1, self.embedding_dim) output = self.out_linear(output) return output, attention_weights class PositionwiseFeedforward(nn.Module): def __init__(self, embedding_dim, hidden_dim, dropout): super().__init__() self.fc1 = nn.Linear(embedding_dim, hidden_dim) self.fc2 = nn.Linear(hidden_dim, embedding_dim) self.dropout = nn.Dropout(dropout) def forward(self, x): x = F.relu(self.fc1(x)) x = self.dropout(x) x = self.fc2(x) return x # 定义训练函数 def train(model, iterator, optimizer, criterion): model.train() epoch_loss = 0 for src, tgt in iterator: optimizer.zero_grad() output, _, _ = model(src, tgt[:, :-1]) output_dim = output.shape[-1] output = output.contiguous().view(-1, output_dim) tgt = tgt[:, 1:].contiguous().view(-1) loss = criterion(output, tgt) loss.backward() optimizer.step() epoch_loss += loss.item() return epoch_loss / len(iterator) # 定义评估函数 def evaluate(model, iterator, criterion): model.eval() epoch_loss = 0 with torch.no_grad(): for src, tgt in iterator: output, _, _ = model(src, tgt[:, :-1]) output_dim = output.shape[-1] output = output.contiguous().view(-1, output_dim) tgt = tgt[:, 1:].contiguous().view(-1) loss = criterion(output, tgt) epoch_loss += loss.item() return epoch_loss / len(iterator) # 加载数据集 train_dataset = TranslationDataset('train.txt') valid_dataset = TranslationDataset('valid.txt') train_loader = DataLoader(train_dataset, batch_size=BATCH_SIZE, shuffle=True) valid_loader = DataLoader(valid_dataset, batch_size=BATCH_SIZE) # 初始化模型和优化器 model = Transformer(input_dim=10000, output_dim=10000, embedding_dim=EMBEDDING_DIM, hidden_dim=HIDDEN_DIM, n_layers=N_LAYERS, n_heads=N_HEADS, dropout=DROPOUT) optimizer = optim.Adam(model.parameters(), lr=LEARNING_RATE) criterion = nn.CrossEntropyLoss(ignore_index=0) # 训练模型 for epoch in range(N_EPOCHS): train_loss = train(model, train_loader, optimizer, criterion) valid_loss = evaluate(model, valid_loader, criterion) print(f'Epoch: {epoch+1:02} | Train Loss: {train_loss:.3f} | Valid Loss: {valid_loss:.3f}') ``` 上述代码实现了一个简单的机器翻译模型,使用了PyTorch框架和Transformer架构。具体而言,它使用了一个包含6个Encoder层和6个Decoder层的Transformer模型,其中每个层都包含了自注意力和多头注意力机制。该模型使用了Adam优化器和交叉熵损失函数进行训练。
阅读全文

相关推荐

最新推荐

recommend-type

深度学习自然语言处理-Transformer模型

Transformer模型是深度学习自然语言处理领域的一个里程碑式创新,由Vaswani等人在2017年的论文《Attention is All You Need》中提出。它彻底摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),转而完全依赖...
recommend-type

(1) 输入整数元素序列并创建序列表 (2) 实现序列表的遍历 (3) 在序列表中搜索某个元素,如果搜索成功

(1) 输入整数元素序列并创建序列表。(2) 实现序列表的遍历。(3) 在序列表中搜索某个元素,如果搜索成功,则返回1,否则返回0。(4) 检查序列表中的元素是否对称,对称返回1,否则关闭.zip
recommend-type

8) The7 - WordPress 网站与电子商务构建器 v12.0.2.zip

The7 是一个功能丰富的 WordPress 主题,专为网站和电子商务构建设计,适合各种类型的网站,包括商务、博客、投资组合和在线商店。以下是 The7 的主要特点: 高度可定制:提供强大的主题选项和自定义工具,让用户可以轻松调整外观和布局,满足不同需求。 内置页面构建器:与 WPBakery Page Builder 和 Elementor 兼容,用户可以通过拖放的方式轻松创建和设计页面。 丰富的预建模板:提供超过 40 个预建网站模板,用户可以快速导入并进行个性化修改,节省设计时间。 响应式设计:确保网站在所有设备(手机、平板、桌面)上均能良好展示,提供优质用户体验。 WooCommerce 集成:完美支持 WooCommerce,具备多种电商功能,帮助用户轻松建立和管理在线商店。 SEO 友好:经过优化,有助于提高网站在搜索引擎中的排名,吸引更多流量。 多种内容模块:包括图像、视频、轮播、滑块等,帮助用户丰富网站内容的展示。 持续更新和支持:定期更新主题,确保用户获得最新的功能和安全性,同时提供专业的客户支持。
recommend-type

IEEE 14总线系统Simulink模型开发指南与案例研究

资源摘要信息:"IEEE 14 总线系统 Simulink 模型是基于 IEEE 指南而开发的,可以用于多种电力系统分析研究,比如短路分析、潮流研究以及互连电网问题等。模型具体使用了 MATLAB 这一数学计算与仿真软件进行开发,模型文件为 Fourteen_bus.mdl.zip 和 Fourteen_bus.zip,其中 .mdl 文件是 MATLAB 的仿真模型文件,而 .zip 文件则是为了便于传输和分发而进行的压缩文件格式。" IEEE 14总线系统是电力工程领域中用于仿真实验和研究的基础测试系统,它是根据IEEE(电气和电子工程师协会)的指南设计的,目的是为了提供一个标准化的测试平台,以便研究人员和工程师可以比较不同的电力系统分析方法和优化技术。IEEE 14总线系统通常包括14个节点(总线),这些节点通过一系列的传输线路和变压器相互连接,以此来模拟实际电网中各个电网元素之间的电气关系。 Simulink是MATLAB的一个附加产品,它提供了一个可视化的环境用于模拟、多域仿真和基于模型的设计。Simulink可以用来模拟各种动态系统,包括线性、非线性、连续时间、离散时间以及混合信号系统,这使得它非常适合电力系统建模和仿真。通过使用Simulink,工程师可以构建复杂的仿真模型,其中就包括了IEEE 14总线系统。 在电力系统分析中,短路分析用于确定在特定故障条件下电力系统的响应。了解短路电流的大小和分布对于保护设备的选择和设置至关重要。潮流研究则关注于电力系统的稳态操作,通过潮流计算可以了解在正常运行条件下各个节点的电压幅值、相位和系统中功率流的分布情况。 在进行互连电网问题的研究时,IEEE 14总线系统也可以作为一个测试案例,研究人员可以通过它来分析电网中的稳定性、可靠性以及安全性问题。此外,它也可以用于研究分布式发电、负载管理和系统规划等问题。 将IEEE 14总线系统的模型文件打包为.zip格式,是一种常见的做法,以减小文件大小,便于存储和传输。在解压.zip文件之后,用户就可以获得包含所有必要组件的完整模型文件,进而可以在MATLAB的环境中加载和运行该模型,进行上述提到的多种电力系统分析。 总的来说,IEEE 14总线系统 Simulink模型提供了一个有力的工具,使得电力系统的工程师和研究人员可以有效地进行各种电力系统分析与研究,并且Simulink模型文件的可复用性和可视化界面大大提高了工作的效率和准确性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【数据安全黄金法则】:R语言中party包的数据处理与隐私保护

![【数据安全黄金法则】:R语言中party包的数据处理与隐私保护](https://media.geeksforgeeks.org/wp-content/uploads/20220603131009/Group42.jpg) # 1. 数据安全黄金法则与R语言概述 在当今数字化时代,数据安全已成为企业、政府机构以及个人用户最为关注的问题之一。数据安全黄金法则,即最小权限原则、加密保护和定期评估,是构建数据保护体系的基石。通过这一章节,我们将介绍R语言——一个在统计分析和数据科学领域广泛应用的编程语言,以及它在实现数据安全策略中所能发挥的独特作用。 ## 1.1 R语言简介 R语言是一种
recommend-type

Takagi-Sugeno模糊控制方法的原理是什么?如何设计一个基于此方法的零阶或一阶模糊控制系统?

Takagi-Sugeno模糊控制方法是一种特殊的模糊推理系统,它通过一组基于规则的模糊模型来逼近系统的动态行为。与传统的模糊控制系统相比,该方法的核心在于将去模糊化过程集成到模糊推理中,能够直接提供系统的精确输出,特别适合于复杂系统的建模和控制。 参考资源链接:[Takagi-Sugeno模糊控制原理与应用详解](https://wenku.csdn.net/doc/2o97444da0?spm=1055.2569.3001.10343) 零阶Takagi-Sugeno系统通常包含基于规则的决策,它不包含系统的动态信息,适用于那些系统行为可以通过一组静态的、非线性映射来描述的场合。而一阶
recommend-type

STLinkV2.J16.S4固件更新与应用指南

资源摘要信息:"STLinkV2.J16.S4固件.zip包含了用于STLinkV2系列调试器的JTAG/SWD接口固件,具体版本为J16.S4。固件文件的格式为二进制文件(.bin),适用于STMicroelectronics(意法半导体)的特定型号的调试器,用于固件升级或更新。" STLinkV2.J16.S4固件是指针对STLinkV2系列调试器的固件版本J16.S4。STLinkV2是一种常用于编程和调试STM32和STM8微控制器的调试器,由意法半导体(STMicroelectronics)生产。固件是指嵌入在设备硬件中的软件,负责执行设备的低级控制和管理任务。 固件版本J16.S4中的"J16"可能表示该固件的修订版本号,"S4"可能表示次级版本或是特定于某个系列的固件。固件版本号可以用来区分不同时间点发布的更新和功能改进,开发者和用户可以根据需要选择合适的版本进行更新。 通常情况下,固件升级可以带来以下好处: 1. 增加对新芯片的支持:随着新芯片的推出,固件升级可以使得调试器能够支持更多新型号的微控制器。 2. 提升性能:修复已知的性能问题,提高设备运行的稳定性和效率。 3. 增加新功能:可能包括对调试协议的增强,或是新工具的支持。 4. 修正错误:对已知错误进行修正,提升调试器的兼容性和可靠性。 使用STLinkV2.J16.S4固件之前,用户需要确保固件与当前的硬件型号兼容。更新固件的步骤大致如下: 1. 下载固件文件STLinkV2.J16.S4.bin。 2. 打开STLink的软件更新工具(可能是ST-Link Utility),该工具由STMicroelectronics提供,用于管理固件更新过程。 3. 通过软件将下载的固件文件导入到调试器中。 4. 按照提示完成固件更新过程。 在进行固件更新之前,强烈建议用户仔细阅读相关的更新指南和操作手册,以避免因操作不当导致调试器损坏。如果用户不确定如何操作,应该联系设备供应商或专业技术人员进行咨询。 固件更新完成后,用户应该检查调试器是否能够正常工作,并通过简单的测试项目验证固件的功能是否正常。如果存在任何问题,应立即停止使用并联系技术支持。 固件文件通常位于STMicroelectronics官方网站或专门的软件支持平台上,用户可以在这里下载最新的固件文件,以及获得技术支持和更新日志。STMicroelectronics网站上还会提供固件更新工具,它是更新固件的必备工具。 由于固件涉及到硬件设备的底层操作,错误的固件升级可能会导致设备变砖(无法使用)。因此,在进行固件更新之前,用户应确保了解固件更新的风险,备份好重要数据,并在必要时寻求专业帮助。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【R语言高级用户指南】:10个理由让你深入挖掘party包的潜力

![R语言数据包使用详细教程party](https://img-blog.csdnimg.cn/5e7ce3f9b32744a09bcb208e42657e86.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5aSa5Yqg54K56L6j5Lmf5rKh5YWz57O7,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) # 1. R语言和party包简介 R语言是一种广泛用于统计分析和数据可视化领域的编程语言。作为一种开源工具,它拥有庞