Decision Transformer复现
时间: 2023-10-14 13:58:27 浏览: 129
Official codebase for Decision Transformer: Reinforcement Learni
Decision Transformer是一种基于Transformer的模型,用于序列转换任务,如机器翻译、文本摘要和对话等。它采用了Encoder-Decoder结构,其中Encoder将输入序列转换为一系列特征表示,而Decoder则将这些特征表示转换为输出序列。\[3\]
在Decision Transformer的实现中,代码部分主要参考了The Annotated Transformer、《Convolutional Sequence to Sequence Learning》和Google的《Attention is All You Need》等资料。具体实现中,通过对输入序列进行线性变换和多头注意力机制的处理,将输入序列转换为特征表示。\[2\]
在代码实现中,通过对输入序列进行维度变换和线性变换,将输入序列转换为(batch, time, 512)的特征表示。这里使用了多个(512, 512)的矩阵对输入序列进行变换,其中前三个用于对query、key和value进行变换,最后一个用于对多头注意力机制后的向量进行变换。最终输出的特征表示仍然是(batch, time, 512)的形式。\[2\]
总结来说,Decision Transformer是一种基于Transformer的模型,用于序列转换任务。它采用了Encoder-Decoder结构,通过线性变换和多头注意力机制将输入序列转换为特征表示。具体的实现可以参考The Annotated Transformer等资料。
#### 引用[.reference_title]
- *1* *2* *3* [一文读懂Transformer+源码复现](https://blog.csdn.net/jiaowoshouzi/article/details/89641775)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文