解释conv_bn_layer函数和它的参数的意思

时间: 2024-05-25 17:15:43 浏览: 114
conv_bn_layer函数是一个卷积层和Batch Normalization层的组合函数,它将卷积操作和批量标准化操作结合起来,从而提高了模型的性能和稳定性。 参数说明: - input:输入张量,即上一层的输出 - filter_size:卷积核的大小 - num_filters:卷积核数量 - stride:卷积步长 - padding:填充方式 - act:激活函数,如relu、sigmoid等 - use_cudnn:是否使用cudnn加速 - param_attr:卷积核参数属性 - bias_attr:偏置参数属性 - bn_param_attr:Batch Normalization参数属性 - names:层的名称
相关问题

解释conv_bn_layer

conv_bn_layer是一种神经网络层,结合了卷积和批归一化技术。卷积层是用来提取图像中的特征,而批归一化则是为了防止梯度消失和加速训练。在conv_bn_layer中,先进行卷积操作,然后对卷积结果进行批归一化处理,最后再通过激活函数进行非线性变换。这样可以更好地提取特征,并且使得网络更加稳定和收敛更快。

utils.fuse_all_conv_bn

`utils.fuse_all_conv_bn`通常是在深度学习框架(如TensorFlow或PyTorch)中的一种优化技巧,它合并了卷积层(Convolutional Layer) 和批量归一化(Batch Normalization)的操作。批量归一化作为一种常见的网络正则化技术,会分别对每个通道的数据进行标准化,而融合后可以减少计算量,提高模型的训练速度,并简化模型架构。 在某些版本的框架中,这种操作可能会自动进行,但如果需要手动控制或优化性能,开发者可能会使用这个工具函数。例如,在PyTorch的`torch.nn.utils.fusion`模块中,`fuse_conv_bn`函数就是用于检查并尝试将连续的Conv-BN层组合在一起,形成一个新的“fused”模块,减少了中间变量和运算步骤。 举个例子: ```python from torch.nn.utils import fuse_conv_bn model = Net() # 原始模型可能像这样 model.conv1 model.bn1 # 使用fuse_all_conv_bn进行融合 fused_module = fuse_conv_bn(model.conv1, model.bn1) model.conv1 = fused_module ```

相关推荐

def block1(x, filters, kernel_size=3, stride=1, conv_shortcut=True, name=None): """A residual block. Arguments: x: input tensor. filters: integer, filters of the bottleneck layer. kernel_size: default 3, kernel size of the bottleneck layer. stride: default 1, stride of the first layer. conv_shortcut: default True, use convolution shortcut if True, otherwise identity shortcut. name: string, block label. Returns: Output tensor for the residual block. """ bn_axis = 3 if backend.image_data_format() == 'channels_last' else 1 if conv_shortcut: shortcut = layers.Conv2D( 4 * filters, 1, strides=stride, name=name + '_0_conv')(x) shortcut = layers.BatchNormalization( axis=bn_axis, epsilon=1.001e-5, name=name + '_0_bn')(shortcut) else: shortcut = x #第一个卷积结构 x = layers.Conv2D(filters, 1, strides=stride, name=name + '_1_conv')(x) x = layers.BatchNormalization( axis=bn_axis, epsilon=1.001e-5, name=name + '_1_bn')(x) x = layers.Activation('relu', name=name + '_1_relu')(x) #第二个卷积结构 x = layers.Conv2D( filters, kernel_size, padding='SAME', name=name + '_2_conv')(x) x = layers.BatchNormalization( axis=bn_axis, epsilon=1.001e-5, name=name + '_2_bn')(x) x = layers.Activation('relu', name=name + '_2_relu')(x) #第三个卷积结构 x = layers.Conv2D(4 * filters, 1, name=name + '_3_conv')(x) x = layers.BatchNormalization( axis=bn_axis, epsilon=1.001e-5, name=name + '_3_bn')(x) x = layers.Add(name=name + '_add')([shortcut, x]) x = layers.Activation('relu', name=name + '_out')(x) return x def stack1(x, filters, blocks, stride1=2, name=None): """A set of stacked residual blocks. Arguments: x: input tensor. filters: integer, filters of the bottleneck layer in a block. blocks: integer, blocks in the stacked blocks. stride1: default 2, stride of the first layer in the first block. name: string, stack label. Returns: Output tensor for the stacked blocks. """ x = block1(x, filters, stride=stride1, name=name + '_block1') for i in range(2, blocks + 1): x = block1(x, filters, conv_shortcut=False, name=name + '_block' + str(i)) return x

解释每一句class RepVggBlock(nn.Layer): def init(self, ch_in, ch_out, act='relu', alpha=False): super(RepVggBlock, self).init() self.ch_in = ch_in self.ch_out = ch_out self.conv1 = ConvBNLayer( ch_in, ch_out, 3, stride=1, padding=1, act=None) self.conv2 = ConvBNLayer( ch_in, ch_out, 1, stride=1, padding=0, act=None) self.act = get_act_fn(act) if act is None or isinstance(act, ( str, dict)) else act if alpha: self.alpha = self.create_parameter( shape=[1], attr=ParamAttr(initializer=Constant(value=1.)), dtype="float32") else: self.alpha = None def forward(self, x): if hasattr(self, 'conv'): y = self.conv(x) else: if self.alpha: y = self.conv1(x) + self.alpha * self.conv2(x) else: y = self.conv1(x) + self.conv2(x) y = self.act(y) return y def convert_to_deploy(self): if not hasattr(self, 'conv'): self.conv = nn.Conv2D( in_channels=self.ch_in, out_channels=self.ch_out, kernel_size=3, stride=1, padding=1, groups=1) kernel, bias = self.get_equivalent_kernel_bias() self.conv.weight.set_value(kernel) self.conv.bias.set_value(bias) self.delattr('conv1') self.delattr('conv2') def get_equivalent_kernel_bias(self): kernel3x3, bias3x3 = self._fuse_bn_tensor(self.conv1) kernel1x1, bias1x1 = self._fuse_bn_tensor(self.conv2) if self.alpha: return kernel3x3 + self.alpha * self._pad_1x1_to_3x3_tensor( kernel1x1), bias3x3 + self.alpha * bias1x1 else: return kernel3x3 + self._pad_1x1_to_3x3_tensor( kernel1x1), bias3x3 + bias1x1 def _pad_1x1_to_3x3_tensor(self, kernel1x1): if kernel1x1 is None: return 0 else: return nn.functional.pad(kernel1x1, [1, 1, 1, 1]) def _fuse_bn_tensor(self, branch): if branch is None: return 0, 0 kernel = branch.conv.weight running_mean = branch.bn._mean running_var = branch.bn._variance gamma = branch.bn.weight beta = branch.bn.bias eps = branch.bn._epsilon std = (running_var + eps).sqrt() t = (gamma / std).reshape((-1, 1, 1, 1)) return kernel * t, beta - running_mean * gamma / std

代码解析: class BasicBlock(nn.Layer): expansion = 1 def init(self, in_channels, channels, stride=1, downsample=None): super().init() self.conv1 = conv1x1(in_channels, channels) self.bn1 = nn.BatchNorm2D(channels) self.relu = nn.ReLU() self.conv2 = conv3x3(channels, channels, stride) self.bn2 = nn.BatchNorm2D(channels) self.downsample = downsample self.stride = stride def forward(self, x): residual = x out = self.conv1(x) out = self.bn1(out) out = self.relu(out) out = self.conv2(out) out = self.bn2(out) if self.downsample is not None: residual = self.downsample(x) out += residual out = self.relu(out) return out class ResNet45(nn.Layer): def init(self, in_channels=3, block=BasicBlock, layers=[3, 4, 6, 6, 3], strides=[2, 1, 2, 1, 1]): self.inplanes = 32 super(ResNet45, self).init() self.conv1 = nn.Conv2D( in_channels, 32, kernel_size=3, stride=1, padding=1, weight_attr=ParamAttr(initializer=KaimingNormal()), bias_attr=False) self.bn1 = nn.BatchNorm2D(32) self.relu = nn.ReLU() self.layer1 = self._make_layer(block, 32, layers[0], stride=strides[0]) self.layer2 = self._make_layer(block, 64, layers[1], stride=strides[1]) self.layer3 = self._make_layer(block, 128, layers[2], stride=strides[2]) self.layer4 = self._make_layer(block, 256, layers[3], stride=strides[3]) self.layer5 = self._make_layer(block, 512, layers[4], stride=strides[4]) self.out_channels = 512 def _make_layer(self, block, planes, blocks, stride=1): downsample = None if stride != 1 or self.inplanes != planes * block.expansion: # downsample = True downsample = nn.Sequential( nn.Conv2D( self.inplanes, planes * block.expansion, kernel_size=1, stride=stride, weight_attr=ParamAttr(initializer=KaimingNormal()), bias_attr=False), nn.BatchNorm2D(planes * block.expansion), ) layers = [] layers.append(block(self.inplanes, planes, stride, downsample)) self.inplanes = planes * block.expansion for i in range(1, blocks): layers.append(block(self.inplanes, planes)) return nn.Sequential(*layers) def forward(self, x): x = self.conv1(x) x = self.bn1(x) x = self.relu(x) x = self.layer1(x) x = self.layer2(x) x = self.layer3(x) x = self.layer4(x) x = self.layer5(x) return x

import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable class Bottleneck(nn.Module): def init(self, last_planes, in_planes, out_planes, dense_depth, stride, first_layer): super(Bottleneck, self).init() self.out_planes = out_planes self.dense_depth = dense_depth self.conv1 = nn.Conv2d(last_planes, in_planes, kernel_size=1, bias=False) self.bn1 = nn.BatchNorm2d(in_planes) self.conv2 = nn.Conv2d(in_planes, in_planes, kernel_size=3, stride=stride, padding=1, groups=32, bias=False) self.bn2 = nn.BatchNorm2d(in_planes) self.conv3 = nn.Conv2d(in_planes, out_planes+dense_depth, kernel_size=1, bias=False) self.bn3 = nn.BatchNorm2d(out_planes+dense_depth) self.shortcut = nn.Sequential() if first_layer: self.shortcut = nn.Sequential( nn.Conv2d(last_planes, out_planes+dense_depth, kernel_size=1, stride=stride, bias=False), nn.BatchNorm2d(out_planes+dense_depth) ) def forward(self, x): out = F.relu(self.bn1(self.conv1(x))) out = F.relu(self.bn2(self.conv2(out))) out = self.bn3(self.conv3(out)) x = self.shortcut(x) d = self.out_planes out = torch.cat([x[:,:d,:,:]+out[:,:d,:,:], x[:,d:,:,:], out[:,d:,:,:]], 1) out = F.relu(out) return out class DPN(nn.Module): def init(self, cfg): super(DPN, self).init() in_planes, out_planes = cfg['in_planes'], cfg['out_planes'] num_blocks, dense_depth = cfg['num_blocks'], cfg['dense_depth'] self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1, bias=False) self.bn1 = nn.BatchNorm2d(64) self.last_planes = 64 self.layer1 = self._make_layer(in_planes[0], out_planes[0], num_blocks[0], dense_depth[0], stride=1) self.layer2 = self._make_layer(in_planes[1], out_planes[1], num_blocks[1], dense_depth[1], stride=2) self.layer3 = self._make_layer(in_planes[2], out_planes[2], num_blocks[2], dense_depth[2], stride=2) self.layer4 = self._make_layer(in_planes[3], out_planes[3], num_blocks[3], dense_depth[3], stride=2) self.linear = nn.Linear(out_planes[3]+(num_blocks[3]+1)dense_depth[3], 10) def _make_layer(self, in_planes, out_planes, num_blocks, dense_depth, stride): strides = [stride] + 1 layers = [] for i,stride in (strides): layers.append(Bottleneck(self.last_planes, in_planes, out_planes, dense_depth, stride, i==0)) self.last_planes = out_planes + (i+2) * dense_depth return nn.Sequential(*layers) def forward(self, x): out = F.relu(self.bn1(self.conv1(x))) out = self.layer1(out) out = self.layer2(out) out = self.layer3(out) out = self.layer4(out) out = F.avg_pool2d(out, 4) out = out.view(out.size(0), -1) out = self.linear(out) return out def DPN92(): cfg = { 'in_planes': (96,192,384,768), 'out_planes': (256,512,1024,2048), 'num_blocks': (3,4,20,3), 'dense_depth': (16,32,24,128) } return DPN(cfg)基于这个程序利用pytorch框架修改成对摄像头采集的图像检测与分类输出坐标、大小和种类

最新推荐

recommend-type

大学生职业生涯规划书Word模板范文就业求职简历应聘工作PPT医疗康复专业

大学生职业生涯规划书Word模板范文就业求职简历应聘工作PPT医疗康复专业
recommend-type

基于Java的学生信息管理系统的实现与操作

本文介绍了一个Java实现的小型系统 -- 学生信息管理系统,包括学生数据的增删查改四个主要操作的功能演示,并具体讲解了涉及三个核心类(Student.java、StudentManager.java、StudentFrame.java)的设计思想以及代码逻辑。适合Java初学者用来了解面向对象的概念应用以及Swing工具包进行GUI创建的基础方法和步骤。系统通过提供文本框用于输入学生ID和其他必要信息,并提供按钮来执行对应指令,显示栏展示查询结果显示,使操作变得更为简洁直观有效。 适用于初步掌握Java基础的开发者,特别是想要加强自己对面向对象编码思维理解和运用的同学。 使用此管理系统可以在本地电脑环境上进行学生的数据维护工作(如增删改查),提高学校教务工作者处理信息的效率。 除了基本的数据录入和搜索之外,该项目也帮助理解如何设计合理的模型类并使用集合存储大量数据元素,另外还介绍了如何通过事件监听的方式绑定用户行为和应用程序之间的交互流程。
recommend-type

基于单片机控制的填块切割装置的设计_孟紫腾.pdf

基于单片机控制的填块切割装置的设计_孟紫腾
recommend-type

JDK 17 Linux版本压缩包解压与安装指南

资源摘要信息:"JDK 17 是 Oracle 公司推出的 Java 开发工具包的第17个主要版本,它包括了Java语言和虚拟机规范的更新,以及一系列新的开发工具。这个版本是为了满足开发者对于高性能、高安全性和新特性的需求。'jdk-17_linux-x64_bin.deb.zip' 是该JDK版本的Linux 64位操作系统下的二进制文件格式,通常用于Debian或Ubuntu这样的基于Debian的Linux发行版。该文件是一个压缩包,包含了'jdk-17_linux-x64_bin.deb',这是JDK的安装包,按照Debian包管理系统的格式进行打包。通过安装这个包,用户可以在Linux系统上安装并使用JDK 17进行Java应用的开发。" ### JDK 17 特性概述 - **新特性**:JDK 17 引入了多个新特性,包括模式匹配的记录(record)、switch 表达式的改进、带有文本块的字符串处理增强等。这些新特性旨在提升开发效率和代码的可读性。 - **性能提升**:JDK 17 在性能上也有所提升,包括对即时编译器、垃圾收集器等方面的优化。 - **安全加强**:安全性一直是Java的强项,JDK 17 继续增强了安全特性,包括更多的加密算法支持和安全漏洞的修复。 - **模块化**:JDK 17 继续推动Java平台的模块化发展,模块化有助于减少Java应用程序的总体大小,并提高其安全性。 - **长期支持(LTS)**:JDK 17 是一个长期支持版本,意味着它将获得官方更长时间的技术支持和补丁更新,这对于企业级应用开发至关重要。 ### JDK 安装与使用 - **安装过程**:对于Debian或Ubuntu系统,用户可以通过下载 'jdk-17_linux-x64_bin.deb.zip' 压缩包,解压后得到 'jdk-17_linux-x64_bin.deb' 安装包。用户需要以管理员权限运行命令 `sudo dpkg -i jdk-17_linux-x64_bin.deb` 来安装JDK。 - **环境配置**:安装完成后,需要将JDK的安装路径添加到系统的环境变量中,以便在任何位置调用Java编译器和运行时环境。 - **版本管理**:为了能够管理和切换不同版本的Java,用户可能会使用如jEnv或SDKMAN!等工具来帮助切换Java版本。 ### Linux 系统中的 JDK 管理 - **包管理器**:在Linux系统中,包管理器如apt、yum、dnf等可以用来安装、更新和管理软件包,包括JDK。对于Java开发者而言,了解并熟悉这些包管理器是非常必要的。 - **Java 平台模块系统**:JDK 17 以模块化的方式组织,这意味着Java平台本身以及Java应用程序都可以被构建为一组模块。这有助于管理大型系统,使得只加载运行程序所需的模块成为可能。 ### JDK 版本选择与维护 - **版本选择**:在选择JDK版本时,除了考虑新特性、性能和安全性的需求外,企业级用户还需要考虑到JDK的版本更新周期和企业的维护策略。 - **维护策略**:对于JDK的维护,企业通常会有一个周期性的评估和升级计划,确保使用的是最新的安全补丁和性能改进。 ### JDK 17 的未来发展 - **后续版本的期待**:虽然JDK 17是一个 LTS 版本,但它不是Java版本更新的终点。Oracle 会继续推出后续版本,每六个月发布一个更新版本,每三年发布一个LTS版本。开发者需要关注未来版本中的新特性,以便适时升级开发环境。 通过以上知识点的总结,我们可以了解到JDK 17对于Java开发者的重要性以及如何在Linux系统中进行安装和使用。随着企业对于Java应用性能和安全性的要求不断提高,正确安装和维护JDK变得至关重要。同时,理解JDK的版本更新和维护策略,能够帮助开发者更好地适应和利用Java平台的持续发展。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

SQLAlchemy表级约束与触发器:数据库设计与完整性维护指南(专业性+推荐词汇)

![SQLAlchemy表级约束与触发器:数据库设计与完整性维护指南(专业性+推荐词汇)](http://www.commandprompt.com/media/images/image_ZU91fxs.width-1200.png) # 1. SQLAlchemy简介与安装 ## 简介 SQLAlchemy 是 Python 中一个强大的 SQL 工具包和对象关系映射(ORM)框架。它旨在提供数据库交互的高效、简洁和可扩展的方式。SQLAlchemy 拥有灵活的底层 API,同时提供了 ORM 层,使得开发者可以使用面向对象的方式来构建和操作数据库。 ## 安装 要开始使用 SQLA
recommend-type

jupyter_contrib_nbextensions_master下载后

Jupyter Contrib NbExtensions是一个GitHub存储库,它包含了许多可以增强Jupyter Notebook用户体验的扩展插件。当你从`master`分支下载`jupyter_contrib_nbextensions-master`文件后,你需要做以下几个步骤来安装和启用这些扩展: 1. **克隆仓库**: 先在本地环境中使用Git命令行工具(如Windows的Git Bash或Mac/Linux终端)克隆该仓库到一个合适的目录,比如: ``` git clone https://github.com/jupyter-contrib/jupyter
recommend-type

C++/Qt飞行模拟器教员控制台系统源码发布

资源摘要信息:"该资源是基于C++与Qt框架构建的飞行模拟器教员控制台系统的源码文件,可用于个人课程设计、毕业设计等多个应用场景。项目代码经过测试并确保运行成功,平均答辩评审分数为96分,具有较高的参考价值。项目适合计算机专业人员如计科、人工智能、通信工程、自动化和电子信息等相关专业的在校学生、老师或企业员工学习使用。此外,即使对编程有一定基础的人士,也可以在此代码基础上进行修改,实现新的功能或将其作为毕设、课设、作业等项目的参考。用户在下载使用时应先阅读README.md文件(如果存在),并请注意该项目仅作为学习参考,严禁用于商业用途。" 由于文件名"ori_code_vip"没有详细说明文件内容,我们不能直接从中提取出具体知识点。不过,我们可以从标题和描述中挖掘出以下知识点: 知识点详细说明: 1. C++编程语言: C++是一种通用编程语言,广泛用于软件开发领域。它支持多范式编程,包括面向对象、泛型和过程式编程。C++在系统/应用软件开发、游戏开发、实时物理模拟等方面有着广泛的应用。飞行模拟器教员控制台系统作为项目实现了一个复杂的系统,C++提供的强大功能和性能正是解决此类问题的利器。 2. Qt框架: Qt是一个跨平台的C++图形用户界面应用程序开发框架。它为开发者提供了丰富的工具和类库,用于开发具有专业外观的用户界面。Qt支持包括窗体、控件、数据处理、网络通信、多线程等功能。该框架还包含用于2D/3D图形、动画、数据库集成和国际化等高级功能的模块。利用Qt框架,开发者可以高效地构建跨平台的应用程序,如本项目中的飞行模拟器教员控制台系统。 3. 飞行模拟器系统: 飞行模拟器是一种模拟航空器(如飞机)操作的系统,广泛用于飞行员培训和飞行模拟。飞行模拟器教员控制台系统通常包括多个模块,例如飞行动力学模拟、环境模拟、虚拟仪表板、通信和导航设备模拟等。在本项目中,控制台系统允许教员控制飞行模拟器的运行,如设置天气条件、选择飞行任务、监控学员操作等。 4. 软件开发流程: 软件开发流程是将软件从概念设计到最终交付的过程。这通常包括需求分析、设计、编码、测试和维护阶段。本项目的开发过程涵盖了这些步骤,包括编写可运行的代码,并进行必要的测试以确保功能正常。这为学习软件开发流程提供了很好的实践案例。 5. 项目测试与维护: 软件开发中的测试和维护阶段是确保软件质量的关键。测试包括单元测试、集成测试和系统测试,以确保软件的每个部分都能正常工作。维护是指在软件发布后,对其进行更新和改进,以修正错误、提高性能或适应新的需求。该项目提供了测试成功的代码,为学习软件测试与维护提供了实践材料。 6. 教育与学习资源: 该资源可以作为计算机相关专业学生、教师和从业人员的教育和学习资源。对于学习进阶的初学者来说,它提供了从课程设计到毕业设计的完整项目实现参考。此外,具有一定基础的用户也可以修改项目代码,来实现个性化功能或作为其他项目的起点。 7. 许可与版权: 在使用该项目时,用户需要遵循相应的许可协议。该资源明确提示,仅供学习参考,不得用于商业用途。在软件开发和使用中,了解和遵守版权法规是非常重要的,这关系到知识产权的保护和法律风险的规避。 该资源提供了一个完整的学习案例,从项目设计、编码实现到测试验证,涵盖了软件开发的整个过程。它不仅是一个很好的学习资源,同时也是软件开发实践的一个示例。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

SQLAlchemy多表查询艺术:JOIN用法深度探索(推荐词汇+价值型)

![python库文件学习之sqlalchemy.sql](https://azatai.s3.amazonaws.com/2020-08-09-141203.jpg) # 1. SQLAlchemy简介与安装 ## 简介 SQLAlchemy 是 Python 中一个流行的 ORM (对象关系映射) 工具,它提供了强大的数据库交互功能,是数据库操作的高级抽象。通过 SQLAlchemy,开发者可以以面向对象的方式来操作数据库,无需编写原生 SQL 语句。它的核心是提供了一个 SQL 表达式语言,用来构建和执行 SQL 查询,并且支持多种数据库后端,如 MySQL, PostgreSQL,