gcanet图像去雾python实现

时间: 2024-01-10 07:02:33 浏览: 130
GCANet是一种图像去雾算法,可以使用Python实现。以下是一个实现的示例代码: ```python import cv2 import numpy as np import torch import torch.nn as nn import torch.optim as optim import torch.nn.functional as F from torch.utils.data import DataLoader, Dataset import os # 定义GCANet模型 class GCANet(nn.Module): def __init__(self): super(GCANet, self).__init__() self.conv1 = nn.Conv2d(3, 16, kernel_size=3, padding=1) self.conv2 = nn.Conv2d(16, 32, kernel_size=3, padding=1) self.conv3 = nn.Conv2d(32, 64, kernel_size=3, padding=1) self.conv4 = nn.Conv2d(64, 128, kernel_size=3, padding=1) self.conv5 = nn.Conv2d(128, 256, kernel_size=3, padding=1) self.conv6 = nn.Conv2d(256, 512, kernel_size=3, padding=1) self.conv7 = nn.Conv2d(512, 1024, kernel_size=3, padding=1) self.conv8 = nn.Conv2d(1024, 2048, kernel_size=3, padding=1) self.conv9 = nn.Conv2d(2048, 1024, kernel_size=3, padding=1) self.conv10 = nn.Conv2d(1024, 512, kernel_size=3, padding=1) self.conv11 = nn.Conv2d(512, 256, kernel_size=3, padding=1) self.conv12 = nn.Conv2d(256, 128, kernel_size=3, padding=1) self.conv13 = nn.Conv2d(128, 64, kernel_size=3, padding=1) self.conv14 = nn.Conv2d(64, 32, kernel_size=3, padding=1) self.conv15 = nn.Conv2d(32, 16, kernel_size=3, padding=1) self.conv16 = nn.Conv2d(16, 3, kernel_size=3, padding=1) self.relu = nn.ReLU(inplace=True) self.pool = nn.MaxPool2d(kernel_size=2, stride=2) self.upsample = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) self.sigmoid = nn.Sigmoid() self.gamma = nn.Parameter(torch.zeros(1)) self.beta = nn.Parameter(torch.zeros(1)) def forward(self, x): x1 = self.relu(self.conv1(x)) x = self.pool(x1) x2 = self.relu(self.conv2(x)) x = self.pool(x2) x3 = self.relu(self.conv3(x)) x = self.pool(x3) x4 = self.relu(self.conv4(x)) x = self.pool(x4) x5 = self.relu(self.conv5(x)) x = self.pool(x5) x6 = self.relu(self.conv6(x)) x = self.pool(x6) x7 = self.relu(self.conv7(x)) x = self.pool(x7) x8 = self.relu(self.conv8(x)) x = self.upsample(x8) x = torch.cat([x, x7], dim=1) x = self.relu(self.conv9(x)) x = self.upsample(x) x = torch.cat([x, x6], dim=1) x = self.relu(self.conv10(x)) x = self.upsample(x) x = torch.cat([x, x5], dim=1) x = self.relu(self.conv11(x)) x = self.upsample(x) x = torch.cat([x, x4], dim=1) x = self.relu(self.conv12(x)) x = self.upsample(x) x = torch.cat([x, x3], dim=1) x = self.relu(self.conv13(x)) x = self.upsample(x) x = torch.cat([x, x2], dim=1) x = self.relu(self.conv14(x)) x = self.upsample(x) x = torch.cat([x, x1], dim=1) x = self.relu(self.conv15(x)) x = self.conv16(x) x = self.gamma * x + self.beta x = self.sigmoid(x) return x # 定义数据集类 class MyDataset(Dataset): def __init__(self, img_path): self.img_path = img_path self.img_list = os.listdir(img_path) def __len__(self): return len(self.img_list) def __getitem__(self, idx): img_name = self.img_list[idx] img = cv2.imread(os.path.join(self.img_path, img_name)) img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) img = img.astype(np.float32) / 255.0 img_hazy = img.copy() img_hazy[:, :, 0] = img_hazy[:, :, 0] * 0.3 + img_hazy[:, :, 1] * 0.59 + img_hazy[:, :, 2] * 0.11 img_hazy[:, :, 1] = img_hazy[:, :, 0] img_hazy[:, :, 2] = img_hazy[:, :, 0] img_hazy = img_hazy + np.random.randn(*img_hazy.shape) * 0.1 img_hazy = np.clip(img_hazy, 0, 1) return torch.from_numpy(img_hazy.transpose(2, 0, 1)), torch.from_numpy(img.transpose(2, 0, 1)) # 训练模型 def train(): device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') dataset = MyDataset('data') dataloader = DataLoader(dataset, batch_size=32, shuffle=True) model = GCANet().to(device) criterion = nn.MSELoss() optimizer = optim.Adam(model.parameters(), lr=1e-3) for epoch in range(50): running_loss = 0.0 for i, (img_hazy, img_gt) in enumerate(dataloader): img_hazy, img_gt = img_hazy.to(device), img_gt.to(device) optimizer.zero_grad() output = model(img_hazy) loss = criterion(output, img_gt) loss.backward() optimizer.step() running_loss += loss.item() if i % 10 == 9: print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 10)) running_loss = 0.0 torch.save(model.state_dict(), 'gcanet.pth') # 使用模型进行去雾 def test(): device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model = GCANet().to(device) model.load_state_dict(torch.load('gcanet.pth')) img_hazy = cv2.imread('hazy.jpg') img_hazy = cv2.cvtColor(img_hazy, cv2.COLOR_BGR2RGB) img_hazy = img_hazy.astype(np.float32) / 255.0 img_hazy[:, :, 0] = img_hazy[:, :, 0] * 0.3 + img_hazy[:, :, 1] * 0.59 + img_hazy[:, :, 2] * 0.11 img_hazy[:, :, 1] = img_hazy[:, :, 0] img_hazy[:, :, 2] = img_hazy[:, :, 0] img_hazy = np.expand_dims(img_hazy.transpose(2, 0, 1), axis=0) img_hazy = torch.from_numpy(img_hazy).to(device) with torch.no_grad(): img_dehaze = model(img_hazy) img_dehaze = img_dehaze.cpu().numpy()[0].transpose(1, 2, 0) img_dehaze[:, :, 0] = img_dehaze[:, :, 0] * 1 + img_hazy[0, 0].cpu().numpy() img_dehaze[:, :, 1] = img_dehaze[:, :, 1] * 1 + img_hazy[0, 1].cpu().numpy() img_dehaze[:, :, 2] = img_dehaze[:, :, 2] * 1 + img_hazy[0, 2].cpu().numpy() img_dehaze = np.clip(img_dehaze, 0, 1) img_dehaze = cv2.cvtColor((img_dehaze * 255).astype(np.uint8), cv2.COLOR_RGB2BGR) cv2.imwrite('dehaze.jpg', img_dehaze) if __name__ == '__main__': train() test() ``` 需要注意的是,这里的训练数据集是在`data`文件夹中,文件夹中包含了一些有雾的图像和对应的无雾图像。训练代码会将这些数据集读入,并对模型进行训练。测试代码则是对一张有雾的图像进行去雾,去雾结果保存为`dehaze.jpg`。
阅读全文

相关推荐

zip
基于python的图像去雾算法研究和系统实现 python;django;mysql; 图像去雾算法;技术发展;暗通道先验;逆深度估计;深度学习;特殊场景;去雾效果 系统模块总体设计 基于python的去雾图象系统的实现在设想中分为以下几个模块: 用户管理模块 (1)用户登录:用户输入用户名和密码进行登录,验证用户身份,如果验证成功,则跳转至图像管理页面;否则提示用户名或密码错误。 (2)用户注册:用户可以在页面输入名称,密码等信息进行注册,系统自动生成用户ID,将用户信息保存到用户信息表中。 图像管理模块 (1)图像上传:用户选择要上传的图像文件,将图像信息保存到图像信息表中。 (2)图像列表:显示当前用户上传的所有图像,包括图像名称和上传时间,用户可以选择要处理的图像。 (3)图像删除:用户可以删除上传的图像。 图像处理模块 (1)图像去雾:用户选择要处理的图像,点击去雾按钮,系统调用FFANet深度学习模型对图像进行去雾处理,将处理结果保存到处理结果表中。 (2)处理结果列表:显示当前用户处理的所有图像处理结果,包括图像名称、处理时间和处理结果图像,用户可以选择查看处理结果图像。 系统管理模块 (1)系统日志:记录系统操作日志,包括用户登录、图像上传、图像处理等操作,记录操作时间、操作人员和操作内容。 (2)系统设置:管理员可以进行系统设置,包括管理员账号管理、FFANet模型更新等操作。

最新推荐

recommend-type

python opencv 图像拼接的实现方法

Python OpenCV 图像拼接是一种将多张图片合并成一张全景图或连续场景的技术,它通过识别和匹配图像之间的相似特征来实现无缝拼接。在本文中,我们将深入探讨如何使用OpenCV库来实现这一过程。 首先,图像拼接分为...
recommend-type

python实现图像外边界跟踪操作

在给定的Python代码中,边界跟踪的目标是找到图像中的黑色区域(像素值较低)的外部边界,并沿着这个边界绘制一条红色线条。以下是实现这一操作的关键步骤: 1. **图像读取与预处理**: 首先,通过`cv2.imread`...
recommend-type

python实现LBP方法提取图像纹理特征实现分类的步骤

本篇文章将详细讲解如何使用Python实现LBP方法来提取图像纹理特征,并进一步实现图像分类。 LBP的基本原理是将像素点与其周围的邻域进行比较,根据像素点与邻域像素的相对亮度关系,构建一个二进制模式,这个模式就...
recommend-type

Python实现投影法分割图像示例(一)

总结来说,Python实现的投影法分割图像示例展示了如何利用OpenCV处理图像,进行二值化、形态学操作以及计算投影,最终得到能够指示图像分割位置的信息。这种方法简单而实用,特别适合于文本检测和分割任务。在实际...
recommend-type

python opencv 实现对图像边缘扩充

在本文中,我们将详细探讨如何使用 Python 和 OpenCV 来实现这一功能。 首先,OpenCV 提供了一个名为 `copyMakeBorder` 的函数,它可以用来对图像的边缘进行各种方式的扩充。这个函数接受多个参数: 1. `img`:...
recommend-type

基于Python和Opencv的车牌识别系统实现

资源摘要信息:"车牌识别项目系统基于python设计" 1. 车牌识别系统概述 车牌识别系统是一种利用计算机视觉技术、图像处理技术和模式识别技术自动识别车牌信息的系统。它广泛应用于交通管理、停车场管理、高速公路收费等多个领域。该系统的核心功能包括车牌定位、车牌字符分割和车牌字符识别。 2. Python在车牌识别中的应用 Python作为一种高级编程语言,因其简洁的语法和强大的库支持,非常适合进行车牌识别系统的开发。Python在图像处理和机器学习领域有丰富的第三方库,如OpenCV、PIL等,这些库提供了大量的图像处理和模式识别的函数和类,能够大大提高车牌识别系统的开发效率和准确性。 3. OpenCV库及其在车牌识别中的应用 OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和机器学习软件库,提供了大量的图像处理和模式识别的接口。在车牌识别系统中,可以使用OpenCV进行图像预处理、边缘检测、颜色识别、特征提取以及字符分割等任务。同时,OpenCV中的机器学习模块提供了支持向量机(SVM)等分类器,可用于车牌字符的识别。 4. SVM(支持向量机)在字符识别中的应用 支持向量机(SVM)是一种二分类模型,其基本模型定义在特征空间上间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM算法的核心思想是找到一个分类超平面,使得不同类别的样本被正确分类,且距离超平面最近的样本之间的间隔(即“间隔”)最大。在车牌识别中,SVM用于字符的分类和识别,能够有效地处理手写字符和印刷字符的识别问题。 5. EasyPR在车牌识别中的应用 EasyPR是一个开源的车牌识别库,它的c++版本被广泛使用在车牌识别项目中。在Python版本的车牌识别项目中,虽然项目描述中提到了使用EasyPR的c++版本的训练样本,但实际上OpenCV的SVM在Python中被用作车牌字符识别的核心算法。 6. 版本信息 在项目中使用的软件环境信息如下: - Python版本:Python 3.7.3 - OpenCV版本:opencv*.*.*.** - Numpy版本:numpy1.16.2 - GUI库:tkinter和PIL(Pillow)5.4.1 以上版本信息对于搭建运行环境和解决可能出现的兼容性问题十分重要。 7. 毕业设计的意义 该项目对于计算机视觉和模式识别领域的初学者来说,是一个很好的实践案例。它不仅能够让学习者在实践中了解车牌识别的整个流程,而且能够锻炼学习者利用Python和OpenCV等工具解决问题的能力。此外,该项目还提供了一定量的车牌标注图片,这在数据不足的情况下尤其宝贵。 8. 文件信息 本项目是一个包含源代码的Python项目,项目代码文件位于一个名为"Python_VLPR-master"的压缩包子文件中。该文件中包含了项目的所有源代码文件,代码经过详细的注释,便于理解和学习。 9. 注意事项 尽管该项目为初学者提供了便利,但识别率受限于训练样本的数量和质量,因此在实际应用中可能存在一定的误差,特别是在处理复杂背景或模糊图片时。此外,对于中文字符的识别,第一个字符的识别误差概率较大,这也是未来可以改进和优化的方向。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

网络隔离与防火墙策略:防御网络威胁的终极指南

![网络隔离](https://www.cisco.com/c/dam/en/us/td/i/200001-300000/270001-280000/277001-278000/277760.tif/_jcr_content/renditions/277760.jpg) # 1. 网络隔离与防火墙策略概述 ## 网络隔离与防火墙的基本概念 网络隔离与防火墙是网络安全中的两个基本概念,它们都用于保护网络不受恶意攻击和非法入侵。网络隔离是通过物理或逻辑方式,将网络划分为几个互不干扰的部分,以防止攻击的蔓延和数据的泄露。防火墙则是设置在网络边界上的安全系统,它可以根据预定义的安全规则,对进出网络
recommend-type

在密码学中,对称加密和非对称加密有哪些关键区别,它们各自适用于哪些场景?

在密码学中,对称加密和非对称加密是两种主要的加密方法,它们在密钥管理、计算效率、安全性以及应用场景上有显著的不同。 参考资源链接:[数缘社区:密码学基础资源分享平台](https://wenku.csdn.net/doc/7qos28k05m?spm=1055.2569.3001.10343) 对称加密使用相同的密钥进行数据的加密和解密。这种方法的优点在于加密速度快,计算效率高,适合大量数据的实时加密。但由于加密和解密使用同一密钥,密钥的安全传输和管理就变得十分关键。常见的对称加密算法包括AES(高级加密标准)、DES(数据加密标准)、3DES(三重数据加密算法)等。它们通常适用于那些需要
recommend-type

我的代码小部件库:统计、MySQL操作与树结构功能

资源摘要信息:"leetcode用例构造-my-widgets是作者为练习、娱乐或实现某些项目功能而自行开发的一个代码小部件集合。这个集合中包含了作者使用Python语言编写的几个实用的小工具模块,每个模块都具有特定的功能和用途。以下是具体的小工具模块及其知识点的详细说明: 1. statistics_from_scratch.py 这个模块包含了一些基础的统计函数实现,包括但不限于均值、中位数、众数以及四分位距等。此外,它还实现了二项分布、正态分布和泊松分布的概率计算。作者强调了使用Python标准库(如math和collections模块)来实现这些功能,这不仅有助于巩固对统计学的理解,同时也锻炼了Python编程能力。这些统计函数的实现可能涉及到了算法设计和数学建模的知识。 2. mysql_io.py 这个模块是一个Python与MySQL数据库交互的接口,它能够自动化执行数据的导入导出任务。作者原本的目的是为了将Leetcode平台上的SQL测试用例以字典格式自动化地导入到本地MySQL数据库中,从而方便在本地测试SQL代码。这个模块中的MysqlIO类支持将MySQL表导出为pandas.DataFrame对象,也能够将pandas.DataFrame对象导入为MySQL表。这个工具的应用场景可能包括数据库管理和数据处理,其内部可能涉及到对数据库API的调用、pandas库的使用、以及数据格式的转换等编程知识点。 3. tree.py 这个模块包含了与树结构相关的一系列功能。它目前实现了二叉树节点BinaryTreeNode的构建,并且提供了从列表构建二叉树的功能。这可能涉及到数据结构和算法中的树形结构、节点遍历、树的构建和操作等。利用这些功能,开发者可以在实际项目中实现更高效的数据存储和检索机制。 以上三个模块构成了my-widgets库的核心内容,它们都以Python语言编写,并且都旨在帮助开发者在特定的编程场景中更加高效地完成任务。这些工具的开发和应用都凸显了作者通过实践提升编程技能的意图,并且强调了开源精神,即将这些工具共享给更广泛的开发者群体,以便他们也能够从中受益。 通过这些小工具的使用,开发者可以更好地理解编程在不同场景下的应用,并且通过观察和学习作者的代码实现,进一步提升自己的编码水平和问题解决能力。"