图像去噪的transformer模型
时间: 2023-08-08 19:12:09 浏览: 179
引用\[1\]:这篇文章介绍了一个专门用于底层图像处理任务的预训练模型,称为image processing transformer (IPT)。该模型使用ImageNet数据集和transformer结构进行训练,并通过微调head和tail来适应具体任务。作者在去噪、超分辨和去雨等任务上进行了实验对比,并取得了SOTA效果。在超分辨任务中,相对于HAN模型,在原图2倍、3倍、4倍下采样的数据上提升了0.4dB。在去噪任务中,在原图添加30和50的高斯噪声等级上,相对于RDN模型分别提升了2.0dB和1.8dB。在去雨任务中,相对于RCDNet模型提升了1.6dB。\[1\]
引用\[2\]:该模型还使用了残差学习范式对网络进行了广泛的训练。在图像去噪任务中,残差学习明显优于传统学习方法,直接预测的去噪图像更接近于真实的去噪结果。\[2\]
引用\[3\]:预训练过程中,使用ImageNet作为benchmark,并通过多种方式生成各类任务的训练集对应的有损图像。例如,在超分辨任务中,使用bicubic降采样生成低分辨率的图片数据集;在去噪任务中,给原始图像添加不同等级的高斯噪声;在去雨任务中,添加人工设计的雨线。\[3\]
综上所述,图像去噪的transformer模型是通过使用ImageNet数据集和transformer结构进行预训练,并通过微调head和tail来适应具体任务。该模型在去噪任务中使用了残差学习,并通过生成有损图像的方式进行训练。该模型在实验中取得了SOTA效果,相对于其他模型在不同任务上都有显著的性能提升。
#### 引用[.reference_title]
- *1* *3* [Transformer进行底层图像处理任务](https://blog.csdn.net/weixin_39707121/article/details/117999922)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [Eformer: Edge Enhancement based Transformer for Medical ImageDenoising--用于医学图像去噪的基于边缘...](https://blog.csdn.net/wangtao990503/article/details/124216582)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文