opencv红外与可见光图像融合

时间: 2023-07-08 18:02:46 浏览: 277
opencv红外与可见光图像融合是通过将红外图像和可见光图像进行融合处理,以提高图像的质量和信息的丰富性。 在opencv中,可以使用多种方法来实现红外与可见光图像融合。其中一种常用的方法是利用图像融合算法,如拉普拉斯金字塔融合算法或是小波变换融合算法。 首先,需要将红外图像和可见光图像进行预处理,包括对图像进行去噪和增强等操作。然后,可以使用拉普拉斯金字塔融合算法,将红外图像和可见光图像分别进行拉普拉斯金字塔分解,得到不同尺度的高频和低频图像。接着,将两个图像的低频部分进行加权平均,得到融合后的低频图像。最后,将高频图像进行相加或是相乘再进行重建,得到融合后的高频图像。将融合后的低频图像和高频图像进行重建,即可得到红外与可见光图像的融合结果。 另一种常用的方法是小波变换融合算法。在这种方法中,首先将红外图像和可见光图像进行小波变换,得到红外和可见光的小波系数。然后,根据一定的权重将两个图像的小波系数进行融合,得到融合后的小波系数。最后,将融合后的小波系数进行反变换,即可得到红外与可见光图像的融合结果。 无论是使用拉普拉斯金字塔融合算法还是小波变换融合算法,都可以实现红外与可见光图像的融合。这种融合方法可以提取红外图像和可见光图像中的有用信息并进行综合,增强图像的质量和信息的丰富性,有助于进一步的图像处理和分析。
相关问题

opencv红外可见光图像融合

OpenCV是一个开源的计算机视觉库,它提了丰富的图像处理和计算机视觉算法。红外可见光图像融合是指将红外图像和可见光图像进行融合,以提取出两种图像的有用信息,从而实现更好的图像分析和理解。 在OpenCV中,可以使用以下步骤进行红外可见光图像融合: 1. 加载红外图像和可见光图像:使用OpenCV的`imread`函数加载红外图像和可见光图像。 2. 图像预处理:对加载的图像进行预处理,例如调整大小、灰度化、直方图均衡化等操作,以便后续处理。 3. 特征提取:使用OpenCV提供的特征提取算法,如SIFT、SURF或ORB等,从红外图像和可见光图像中提取特征点。 4. 特征匹配:将红外图像和可见光图像的特征点进行匹配,找到对应的特征点对。 5. 图像融合:根据特征点对的位置关系,使用一定的融合算法将红外图像和可见光图像进行融合,生成融合后的图像。 6. 后处理:对融合后的图像进行后处理,如增强对比度、去噪等操作,以得到更好的结果。 7. 显示和保存:使用OpenCV的`imshow`函数显示融合后的图像,并使用`imwrite`函数保存图像。

选用MS COCO数据集,使用pytorch训练一个基于多尺度自编码网络的红外与可见光图像融合的模型,以加深对红外与可见光图像融合的理解,掌握图像融合、深度学习、多尺度分析的基本理论方法,实现红外与可见光图像的融合,包括训练、验证、测试等代码

很高兴为您提供帮助!下面是使用PyTorch训练基于多尺度自编码网络的红外与可见光图像融合模型的代码: ## 安装依赖 !pip install numpy !pip install opencv-python !pip install torch !pip install torchvision ## 导入库 import torch import torch.nn as nn import torch.optim as optim import torchvision.transforms as transforms import torchvision.datasets as datasets from torch.autograd import Variable import numpy as np import cv2 ## 定义模型 class FusionNet(nn.Module): def __init__(self): super(FusionNet, self).__init__() # 定义编码器 self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1) self.relu1 = nn.ReLU(inplace=True) self.conv2 = nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1) self.relu2 = nn.ReLU(inplace=True) self.conv3 = nn.Conv2d(128, 256, kernel_size=3, stride=1, padding=1) self.relu3 = nn.ReLU(inplace=True) self.conv4 = nn.Conv2d(256, 512, kernel_size=3, stride=1, padding=1) self.relu4 = nn.ReLU(inplace=True) self.conv5 = nn.Conv2d(512, 1024, kernel_size=3, stride=1, padding=1) self.relu5 = nn.ReLU(inplace=True) # 定义解码器 self.deconv1 = nn.ConvTranspose2d(1024, 512, kernel_size=3, stride=1, padding=1) self.relu6 = nn.ReLU(inplace=True) self.deconv2 = nn.ConvTranspose2d(512, 256, kernel_size=3, stride=1, padding=1) self.relu7 = nn.ReLU(inplace=True) self.deconv3 = nn.ConvTranspose2d(256, 128, kernel_size=3, stride=1, padding=1) self.relu8 = nn.ReLU(inplace=True) self.deconv4 = nn.ConvTranspose2d(128, 64, kernel_size=3, stride=1, padding=1) self.relu9 = nn.ReLU(inplace=True) self.deconv5 = nn.ConvTranspose2d(64, 3, kernel_size=3, stride=1, padding=1) def forward(self, x): # 编码器 out = self.conv1(x) out = self.relu1(out) out = self.conv2(out) out = self.relu2(out) out = self.conv3(out) out = self.relu3(out) out = self.conv4(out) out = self.relu4(out) out = self.conv5(out) out = self.relu5(out) # 解码器 out = self.deconv1(out) out = self.relu6(out) out = self.deconv2(out) out = self.relu7(out) out = self.deconv3(out) out = self.relu8(out) out = self.deconv4(out) out = self.relu9(out) out = self.deconv5(out) return out ## 准备数据集 transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) ]) # 加载COCO数据集 train_set = datasets.CocoDetection(root='./data', annFile='/annotations/instances_train2014.json', transform=transform) # 将可见光图像和红外图像进行融合 def fuse_images(img1, img2): # 调整图像大小 img1 = cv2.resize(img1, (256, 256)) img2 = cv2.resize(img2, (256, 256)) # 将图像转换为灰度图像 img1_gray = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) img2_gray = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 进行SIFT特征提取 sift = cv2.xfeatures2d.SIFT_create() kp1, des1 = sift.detectAndCompute(img1_gray, None) kp2, des2 = sift.detectAndCompute(img2_gray, None) # 进行特征点匹配 bf = cv2.BFMatcher() matches = bf.knnMatch(des1, des2, k=2) good_matches = [] for m, n in matches: if m.distance < 0.5 * n.distance: good_matches.append(m) # 在可见光图像中提取匹配点 img1_pts = np.float32([kp1[m.queryIdx].pt for m in good_matches]).reshape(-1, 1, 2) # 在红外图像中提取匹配点 img2_pts = np.float32([kp2[m.trainIdx].pt for m in good_matches]).reshape(-1, 1, 2) # 进行透视变换 M, mask = cv2.findHomography(img2_pts, img1_pts, cv2.RANSAC, 5.0) result = cv2.warpPerspective(img2, M, (img1.shape[1], img1.shape[0])) # 将可见光图像和红外图像进行融合 alpha = 0.5 beta = (1.0 - alpha) fused_image = cv2.addWeighted(img1, alpha, result, beta, 0.0) return fused_image ## 训练模型 # 定义超参数 num_epochs = 100 batch_size = 32 learning_rate = 0.001 # 创建模型 model = FusionNet() # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.Adam(model.parameters(), lr=learning_rate) # 将模型移动到GPU上 if torch.cuda.is_available(): model.cuda() # 开始训练 for epoch in range(num_epochs): running_loss = 0.0 # 获取数据集 train_loader = torch.utils.data.DataLoader(train_set, batch_size=batch_size, shuffle=True) for i, (images, _) in enumerate(train_loader): # 将数据移动到GPU上 if torch.cuda.is_available(): images = Variable(images.cuda()) else: images = Variable(images) # 前向传播 outputs = model(images) # 计算损失 loss = criterion(outputs, images) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() running_loss += loss.data[0] # 打印损失 print('Epoch [%d/%d], Loss: %.4f' % (epoch+1, num_epochs, running_loss/len(train_loader))) # 保存模型 torch.save(model.state_dict(), 'model.ckpt') ## 测试模型 # 加载模型 model = FusionNet() model.load_state_dict(torch.load('model.ckpt')) # 将模型移动到GPU上 if torch.cuda.is_available(): model.cuda() # 加载测试数据集 test_set = datasets.CocoDetection(root='./data', annFile='/annotations/instances_val2014.json', transform=transform) # 进行测试 for i in range(len(test_set)): # 获取测试数据 image, _ = test_set[i] # 将数据移动到GPU上 if torch.cuda.is_available(): image = Variable(image.unsqueeze(0).cuda()) else: image = Variable(image.unsqueeze(0)) # 前向传播 output = model(image) # 将输出数据转换为图像 output = output.cpu().data.numpy().squeeze() output = np.transpose(output, (1, 2, 0)) output = (output + 1) / 2.0 * 255.0 output = cv2.cvtColor(output, cv2.COLOR_RGB2BGR) # 将可见光图像和红外图像进行融合 visible_image = cv2.imread(test_set.coco.loadImgs(test_set.ids[i])[0]['coco_url']) fused_image = fuse_images(visible_image, output) # 显示结果 cv2.imshow('Visible Image', visible_image) cv2.imshow('Infrared Image', output) cv2.imshow('Fused Image', fused_image) cv2.waitKey(0) cv2.destroyAllWindows() 希望这个代码可以帮助到您!
阅读全文

相关推荐

大家在看

recommend-type

【电场分布】 GUI点电荷电场和电势二维三维分布【含Matlab源码 3553期】.zip

Matlab领域上传的全部代码均可运行,亲测可用,尽我所能,为你服务; 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,可私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、物理应用 仿真:导航、地震、电磁、电路、电能、机械、工业控制、水位控制、直流电机、平面电磁波、管道瞬变流、刚度计算 光学:光栅、杨氏双缝、单缝、多缝、圆孔、矩孔衍射、夫琅禾费、干涉、拉盖尔高斯、光束、光波、涡旋 定位问题:chan、taylor、RSSI、music、卡尔曼滤波UWB 气动学:弹道、气体扩散、龙格库弹道 运动学:倒立摆、泊车 天体学:卫星轨道、姿态 船舶:控制、运动 电磁学:电场分布、电偶极子、永磁同步、变压器
recommend-type

挖掘机叉车工程车辆检测数据集VOC+YOLO格式5067张7类别.7z

集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):5067 标注数量(xml文件个数):5067 标注数量(txt文件个数):5067 标注类别数:7 标注类别名称:[“ConcreteTruck”,“Excavator”,“Forklift”,“Loader”,“Steamroller”,“Truck”,“Worker”] 对应中文名:[“混凝土运输车”、“挖掘机”、“叉车”、“装载机”、“压路机”、”卡车“、”工人“] 更多信息:https://blog.csdn.net/FL1623863129/article/details/142093679
recommend-type

电力行业数字化转型智慧电力一体化监管云平台整体解决方案.docx

电力行业数字化转型智慧电力一体化监管云平台整体解决方案.docx
recommend-type

北工大计算机组成原理大作业

北京工业大学2022计算机组成原理大作业logisim加报告,往届学长作业Logisim完成单周期处理器开发 一、设计说明 1.处理器应支持的指令集MIPS-Lite:addu,subu,ori,lw,sw,beq,lui,j。 a)addu,subu可以不支持实现溢出。 2.处理器为单周期设计。 二、设计要求 3.顶层设计视图包括如Figure1所示的部件,即Controller(控制器)、IFU(取指令单元)、GPR(通用寄存器组,也称为寄存器文件、寄存器堆)、ALU(算术逻辑单元)、DM(数据存储器)、EXT(扩展单元)、多路选择器及splitter。 a)顶层设计视图的顶层有效驱动信号包括且仅包括:clk、reset。 b)提示:图中的其他字符均不是端口信号。
recommend-type

国密SM4加解密SM2签名验签for delphi等语言.rar

基于C#编写的COM组件DLL,可实现SM2签名验签,SM4加解密,100%适用于黑龙江省国家医保接口中进行应用。 1、调用DLL名称:JQSM2SM4.dll 加解密类名:JQSM2SM4.SM2SM4Util CLSID=5B38DCB3-038C-4992-9FA3-1D697474FC70 2、GetSM2SM4函数说明 函数原型public string GetSM2SM4(string smType, string sM2Prikey, string sM4Key, string sInput) 1)参数一smType:填写固定字符串,识别功能,分别实现SM2签名、SM4解密、SM4加密。SM2签名入参填写“SM2Sign”、SM4解密入参填写“SM4DecryptECB”、SM4加密入参填写“SM4EncryptECB”. 2)参数二sM2Prikey:SM2私钥 3)参数三sM4Key:SM4密钥 4)参数四sInput:当smType=SM2Sign,则sInput入参填写SM4加密串;当smType=SM4DecryptECB,则sInput入参填写待解密SM4密文串;当smType=SM4EncryptECB,则sInput入参填写待加密的明文串; 5)函数返回值:当smType=SM2Sign,则返回SM2签名信息;当smType=SM4DecryptECB,则返回SM4解密信息;当smType=SM4EncryptECB,则返回SM4加密信息;异常时,则返回“加解密异常:详细错误说明” 3、购买下载后,可加QQ65635204、微信feisng,免费提供技术支持。 4、注意事项: 1)基于.NET框架4.0编写,常规win7、win10一般系统都自带无需安装,XP系统则需安装;安装包详见压缩包dotNetFx40_Full_x86_x64.exe 2)C#编写的DLL,需要注册,解压后放入所需位置,使用管理员权限运行“JQSM2SM4注册COM.bat”即可注册成功,然后即可提供给第三方软件进行使用,如delphi等。

最新推荐

recommend-type

opencv中图像叠加/图像融合/按位操作的实现

在OpenCV库中,图像处理是一项基础且重要的任务,其中包括图像叠加、图像融合以及按位操作等技术。这些方法在图像合成、图像增强以及视觉效果创造等方面有着广泛的应用。 一、图像叠加 图像叠加,也称为图像相加,...
recommend-type

opencv2实现10张图像上下左右拼接融合

在OpenCV2中,图像拼接融合是一种常见的图像处理任务,尤其在全景图像制作或图像分析中非常有用。本文将详细介绍如何使用OpenCV2库来实现10张图像的上下左右拼接融合。 首先,我们需要了解图像拼接的基本概念。图像...
recommend-type

opencv实现多张图像拼接

OpenCV的`stitching`模块提供了一个更高级的接口,用于自动处理这些复杂情况,包括图像配准、几何变换、曝光校正和图像融合等步骤。 总之,OpenCV为图像拼接提供了直观且功能强大的工具,无论是简单的水平或垂直...
recommend-type

python opencv 图像拼接的实现方法

Python OpenCV 图像拼接是一种将多张图片合并成一张全景图或连续场景的技术,它通过识别和匹配图像之间的相似特征来实现无缝拼接。在本文中,我们将深入探讨如何使用OpenCV库来实现这一过程。 首先,图像拼接分为...
recommend-type

python opencv 实现对图像边缘扩充

Python 的 OpenCV 库提供了丰富的图像处理功能,包括便捷的图像边缘扩充方法。在本文中,我们将详细探讨如何使用 Python 和 OpenCV 来实现这一功能。 首先,OpenCV 提供了一个名为 `copyMakeBorder` 的函数,它可以...
recommend-type

免安装JDK 1.8.0_241:即刻配置环境运行

资源摘要信息:"JDK 1.8.0_241 是Java开发工具包(Java Development Kit)的版本号,代表了Java软件开发环境的一个特定发布。它由甲骨文公司(Oracle Corporation)维护,是Java SE(Java Platform, Standard Edition)的一部分,主要用于开发和部署桌面、服务器以及嵌入式环境中的Java应用程序。本版本是JDK 1.8的更新版本,其中的241代表在该版本系列中的具体更新编号。此版本附带了Java源码,方便开发者查看和学习Java内部实现机制。由于是免安装版本,因此不需要复杂的安装过程,解压缩即可使用。用户配置好环境变量之后,即可以开始运行和开发Java程序。" 知识点详细说明: 1. JDK(Java Development Kit):JDK是进行Java编程和开发时所必需的一组工具集合。它包含了Java运行时环境(JRE)、编译器(javac)、调试器以及其他工具,如Java文档生成器(javadoc)和打包工具(jar)。JDK允许开发者创建Java应用程序、小程序以及可以部署在任何平台上的Java组件。 2. Java SE(Java Platform, Standard Edition):Java SE是Java平台的标准版本,它定义了Java编程语言的核心功能和库。Java SE是构建Java EE(企业版)和Java ME(微型版)的基础。Java SE提供了多种Java类库和API,包括集合框架、Java虚拟机(JVM)、网络编程、多线程、IO、数据库连接(JDBC)等。 3. 免安装版:通常情况下,JDK需要进行安装才能使用。但免安装版JDK仅需要解压缩到磁盘上的某个目录,不需要进行安装程序中的任何步骤。用户只需要配置好环境变量(主要是PATH、JAVA_HOME等),就可以直接使用命令行工具来运行Java程序或编译代码。 4. 源码:在软件开发领域,源码指的是程序的原始代码,它是由程序员编写的可读文本,通常是高级编程语言如Java、C++等的代码。本压缩包附带的源码允许开发者阅读和研究Java类库是如何实现的,有助于深入理解Java语言的内部工作原理。源码对于学习、调试和扩展Java平台是非常有价值的资源。 5. 环境变量配置:环境变量是操作系统中用于控制程序执行环境的参数。在JDK中,常见的环境变量包括JAVA_HOME和PATH。JAVA_HOME是JDK安装目录的路径,配置此变量可以让操作系统识别到JDK的位置。PATH变量则用于指定系统命令查找的路径,将JDK的bin目录添加到PATH后,就可以在命令行中的任何目录下执行JDK中的命令,如javac和java。 在实际开发中,了解并正确配置JDK对于Java开发者来说是一个基础且重要的环节。掌握如何安装和配置JDK,以及如何理解JDK中的源码和各种工具,对于进行Java编程和解决问题至关重要。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【提升效率与稳定性】:深入掌握单相整流器的控制策略

# 摘要 单相整流器作为电力电子技术的基础设备,广泛应用于电力系统和工业自动化领域。本文首先概述了单相整流器的基本概念,详细分析了其工作原理,包括电力电子器件的角色、数学模型以及控制策略。随后,针对控制技术进行了深入探讨,包括传统控制技术如PID控制和高级控制策略如模糊逻辑控制及自适应控制的应用。进一步地,本文提出了一系列提升单相整流器性能的方法,如效率提升策略、系统稳定性措施,以及性能评估与优化方案。最后,文章探讨了单相整流器在不同领域的应用案例,并对新兴技术与市场趋势进行了展望。 # 关键字 单相整流器;电力电子器件;数学模型;控制策略;性能提升;应用案例 参考资源链接:[单相PWM整
recommend-type

你看这是ashx映射的cs文件初始代码,你看这里边根本就没有写对action参数进行任何操作但你.ashx?action=submit这样去做他就能返回出数据这是为什么

在ASP.NET中,.ashx文件(也称为HTTP处理程序)用于处理HTTP请求并返回响应。即使在初始代码中没有对action参数进行任何操作,系统仍然可以通过默认的ProcessRequest方法处理请求并返回数据。 当你在URL中传递参数(如?action=submit)时,这些参数会被包含在请求的查询字符串中。虽然你的代码没有显式地处理这些参数,但默认的ProcessRequest方法会接收这些参数并执行一些默认操作。 以下是一个简单的.ashx文件示例: ```csharp <%@ WebHandler Language="C#" Class="MyHandler" %> us
recommend-type

机器学习预测葡萄酒评分:二值化品尝笔记的应用

资源摘要信息:"wine_reviewer:使用机器学习基于二值化的品尝笔记来预测葡萄酒评论分数" 在当今这个信息爆炸的时代,机器学习技术已经被广泛地应用于各个领域,其中包括食品和饮料行业的质量评估。在本案例中,将探讨一个名为wine_reviewer的项目,该项目的目标是利用机器学习模型,基于二值化的品尝笔记数据来预测葡萄酒评论的分数。这个项目不仅对于葡萄酒爱好者具有极大的吸引力,同时也为数据分析和机器学习的研究人员提供了实践案例。 首先,要理解的关键词是“机器学习”。机器学习是人工智能的一个分支,它让计算机系统能够通过经验自动地改进性能,而无需人类进行明确的编程。在葡萄酒评分预测的场景中,机器学习算法将从大量的葡萄酒品尝笔记数据中学习,发现笔记与葡萄酒最终评分之间的相关性,并利用这种相关性对新的品尝笔记进行评分预测。 接下来是“二值化”处理。在机器学习中,数据预处理是一个重要的步骤,它直接影响模型的性能。二值化是指将数值型数据转换为二进制形式(0和1)的过程,这通常用于简化模型的计算复杂度,或者是数据分类问题中的一种技术。在葡萄酒品尝笔记的上下文中,二值化可能涉及将每种口感、香气和外观等属性的存在与否标记为1(存在)或0(不存在)。这种方法有利于将文本数据转换为机器学习模型可以处理的格式。 葡萄酒评论分数是葡萄酒评估的量化指标,通常由品酒师根据酒的品质、口感、香气、外观等进行评分。在这个项目中,葡萄酒的品尝笔记将被用作特征,而品酒师给出的分数则是目标变量,模型的任务是找出两者之间的关系,并对新的品尝笔记进行分数预测。 在机器学习中,通常会使用多种算法来构建预测模型,如线性回归、决策树、随机森林、梯度提升机等。在wine_reviewer项目中,可能会尝试多种算法,并通过交叉验证等技术来评估模型的性能,最终选择最适合这个任务的模型。 对于这个项目来说,数据集的质量和特征工程将直接影响模型的准确性和可靠性。在准备数据时,可能需要进行数据清洗、缺失值处理、文本规范化、特征选择等步骤。数据集中的标签(目标变量)即为葡萄酒的评分,而特征则来自于品酒师的品尝笔记。 项目还提到了“kaggle”和“R”,这两个都是数据分析和机器学习领域中常见的元素。Kaggle是一个全球性的数据科学竞赛平台,提供各种机器学习挑战和数据集,吸引了来自全球的数据科学家和机器学习专家。通过参与Kaggle竞赛,可以提升个人技能,并有机会接触到最新的机器学习技术和数据处理方法。R是一种用于统计计算和图形的编程语言和软件环境,它在统计分析、数据挖掘、机器学习等领域有广泛的应用。使用R语言可以帮助研究人员进行数据处理、统计分析和模型建立。 至于“压缩包子文件的文件名称列表”,这里可能存在误解或打字错误。通常,这类名称应该表示存储项目相关文件的压缩包,例如“wine_reviewer-master.zip”。这个压缩包可能包含了项目的源代码、数据集、文档和其它相关资源。在开始项目前,研究人员需要解压这个文件包,并且仔细阅读项目文档,以便了解项目的具体要求和数据格式。 总之,wine_reviewer项目是一个结合了机器学习、数据处理和葡萄酒品鉴的有趣尝试,它不仅展示了机器学习在实际生活中的应用潜力,也为研究者提供了丰富的学习资源和实践机会。通过这种跨领域的合作,可以为葡萄酒行业带来更客观、一致的评价标准,并帮助消费者做出更加明智的选择。