优化这段代码# import modules 导入模块 from sklearn.model_selection import train_test_split from sklearn.decomposition import PCA import pandas as pd from sklearn import svm import numpy as np import math import matplotlib.pyplot as plt import matplotlib as mpl from matplotlib import colors from sklearn.model_selection import train_test_split from sklearn import datasets from matplotlib.colors import ListedColormap from sklearn.svm import SVC from sklearn.preprocessing import StandardScaler from sklearn.model_selection import StratifiedShuffleSplit,StratifiedKFold from sklearn.model_selection import GridSearchCV from sklearn.model_selection import GridSearchCV, LeaveOneOut, cross_val_predict from sklearn.model_selection import KFold from sklearn.linear_model import LogisticRegression from sklearn.naive_bayes import GaussianNB from sklearn.neighbors import KNeighborsClassifier from sklearn import svm from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import roc_auc_score from sklearn.metrics import roc_auc_score import math import datetime import multiprocessing as mp from sklearn.ensemble import StackingClassifier from sklearn.pipeline import make_pipeline from sklearn.svm import LinearSVC import random

时间: 2023-08-18 20:05:30 浏览: 234

你可以对这段代码进行如下优化:

import pandas as pd
import numpy as np
import math
import matplotlib.pyplot as plt
import matplotlib as mpl
from matplotlib import colors
from matplotlib.colors import ListedColormap
from sklearn.model_selection import train_test_split, StratifiedShuffleSplit, StratifiedKFold, GridSearchCV, LeaveOneOut, cross_val_predict, KFold
from sklearn.decomposition import PCA
from sklearn.svm import SVC, LinearSVC
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression
from sklearn.naive_bayes import GaussianNB
from sklearn.neighbors import KNeighborsClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier, StackingClassifier
from sklearn.metrics import roc_auc_score

# 导入模块

# 设置随机种子
random.seed(42)
np.random.seed(42)

# 其他代码...

这样做的优点是将导入的模块进行整理和分类,提高了代码的可读性。同时,设置了随机种子,保证了代码的可复现性。你可以根据需要添加其他的代码或模块。

向AI提问 loading 发送消息图标

相关推荐

import pandas as pd from sklearn.datasets import load_wine from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.feature_selection import SelectKBest, f_classif from sklearn.decomposition import PCA from sklearn.metrics import accuracy_score, classification_report from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import accuracy_score from sklearn.ensemble import RandomForestClassifier from sklearn.neighbors import KNeighborsClassifier from sklearn.naive_bayes import GaussianNB from sklearn.linear_model import LogisticRegression from sklearn.svm import SVC data = load_wine() # 导入数据集 X = pd.DataFrame(data.data, columns=data.feature_names) y = pd.Series(data.target) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 构建分类模型 model = LogisticRegression() model.fit(X_train, y_train) # 预测测试集结果 y_pred = model.predict(X_test) #评估模型性能 accuracy = accuracy_score(y_test, y_pred) report = classification_report(y_test, y_pred) print('准确率:', accuracy) # 特征选择 selector = SelectKBest(f_classif, k=6) X_new = selector.fit_transform(X, y) print('所选特征:', selector.get_support()) # 模型降维 pca = PCA(n_components=2) X_new = pca.fit_transform(X_new) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X_new, y, test_size=0.2, random_state=0) def Sf(model,X_train, X_test, y_train, y_test,modelname): mode = model() mode.fit(X_train, y_train) y_pred = mode.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print(modelname, accuracy) importance = mode.feature_importances_ print(importance) def Sf1(model,X_train, X_test, y_train, y_test,modelname): mode = model() mode.fit(X_train, y_train) y_pred = mode.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print(modelname, accuracy) modelname='支持向量机' Sf1(SVC,X_train, X_test, y_train, y_test,modelname) modelname='逻辑回归' Sf1(LogisticRegression,X_train, X_test, y_train, y_test,modelname) modelname='高斯朴素贝叶斯算法训练分类器' Sf1(GaussianNB,X_train, X_test, y_train, y_test,modelname) modelname='K近邻分类' Sf1(KNeighborsClassifier,X_train, X_test, y_train, y_test,modelname) modelname='决策树分类' Sf(DecisionTreeClassifier,X_train, X_test, y_train, y_test,modelname) modelname='随机森林分类' Sf(RandomForestClassifier,X_train, X_test, y_train, y_test,modelname)加一个画图展示

import pandas as pd from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA from sklearn.model_selection import train_test_split from keras.models import Sequential from keras.layers import Dense, Conv1D, MaxPooling1D, Flatten from sklearn.metrics import accuracy_score from sklearn.metrics import confusion_matrix, classification_report from sklearn.metrics import roc_auc_score from sklearn.utils.class_weight import compute_class_weight # 读取数据 data = pd.read_csv('database.csv') # 数据预处理 X = data.iloc[:, :-1].values y = data.iloc[:, -1].values scaler = StandardScaler() X = scaler.fit_transform(X) # 特征选择 pca = PCA(n_components=10) X = pca.fit_transform(X) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) class_weights = compute_class_weight(class_weight='balanced', classes=np.unique(y_train), y=y_train) # 构建CNN模型 model = Sequential() model.add(Conv1D(filters=64, kernel_size=3, activation='relu', input_shape=(10, 1))) model.add(MaxPooling1D(pool_size=2)) model.add(Flatten()) model.add(Dense(10, activation='relu')) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型 X_train = X_train.reshape((X_train.shape[0], X_train.shape[1], 1)) X_test = X_test.reshape((X_test.shape[0], X_test.shape[1], 1)) model.fit(X_train, y_train,class_weight=class_weights,epochs=100, batch_size=64, validation_data=(X_test, y_test)) # 预测结果 y_pred = model.predict(X_test) #检验值 accuracy = accuracy_score(y_test, y_pred) auc = roc_auc_score(y_test, y_pred) print(auc) print("Accuracy:", accuracy) print('Confusion Matrix:\n', confusion_matrix(y_test, y_pred)) print('Classification Report:\n', classification_report(y_test, y_pred))

import numpy as np import pandas as pd from sklearn.model_selection import StratifiedKFold from sklearn.preprocessing import StandardScaler from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, roc_auc_score from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier from xgboost import XGBClassifier from imblearn.pipeline import Pipeline from imblearn.over_sampling import SMOTE from imblearn.under_sampling import TomekLinks from sklearn.decomposition import PCA from sklearn.feature_selection import SelectKBest, mutual_info_classif, VarianceThreshold from sklearn.tree import DecisionTreeClassifier from sklearn.feature_selection import RFE from sklearn.svm import SVC df = pd.read_excel(r'C:\Users\14576\Desktop\计算机资料\石波-乳腺癌\Traintest.xlsx') data = np.array(df) X = data[:, 1:] y = data[:, 0] pipeline = Pipeline([ ('scaler', StandardScaler()), ('variance_threshold', VarianceThreshold(threshold=0.15)), ('resample', SMOTE( sampling_strategy=0.8, # 调整采样比例 k_neighbors=5, # 减少邻居数 random_state=42 )), ('clean', TomekLinks()), # 启用数据清洗 ('feature_selector', RFE( estimator=SVC(kernel="linear", C=0.5), # 改用线性SVM作为基模型 n_features_to_select=10, # 增加特征数 step=0.5 # 加快选择速度 )), ('pca', PCA(n_components=0.90)), # 调整方差保留比例 ('model', XGBClassifier( n_estimators=300, # 增加树的数量 max_depth=3, # 适当增加深度 learning_rate=0.05, # 降低学习率 subsample=0.7, colsample_bytree=0.6, # 新增列采样 reg_alpha=0.1, reg_lambda=1.0, # 加强正则化 scale_pos_weight=9, # 添加类别权重 eval_metric='logloss', #early_stopping_rounds=10, # 新增早停机制 random_state=36 )) ]) kf = StratifiedKFold(n_splits=5, shuffle=True, random_state=42) metrics = { 'Accuracy': [], 'Precision': [], 'Recall': [], 'F1': [], 'AUC': [] } for train_idx, val_idx in kf.split(X, y): X_train, X_val = X[train_idx], X[val_idx] y_train, y_val = y[train_idx], y[val_idx] # 训练并预测 pipeline.fit(X_train, y_train) y_pred = pipeline.predict(X_val) y_proba = pipeline.predict_proba(X_val)[:, 1] # 记录指标 metrics['Accuracy'].append(accuracy_score(y_val, y_pred)) metrics['Precision'].append(precision_score(y_val, y_pred)) metrics['Recall'].append(recall_score(y_val, y_pred)) metrics['F1'].append(f1_score(y_val, y_pred)) metrics['AUC'].append(roc_auc_score(y_val, y_proba)) for metric, values in metrics.items(): print(f"{metric}: {np.mean(values):.4f} ")from sklearn.pipeline import Pipeline from sklearn.feature_selection import RFE # 在整个训练集上重新训练模型(使用全部可用数据) #model=XGBClassifier(n_estimators=100,max_depth=2,learning_rate=0.1,subsample=0.8) pipeline.fit(X_train, y_train) test_df = pd.read_excel(r'C:\Users\14576\Desktop\计算机资料\石波-乳腺癌\Testtest.xlsx') test_data = np.array(test_df) X_test = test_data[:, 1:] y_test = test_data[:, 0] #test_scaler = StandardScaler() #X_test_scaled = test_scaler.fit_transform(X_test) # 预测测试集结果 y_pred = pipeline.predict(X_test) y_proba = pipeline.predict_proba(X_test)[:, 1] # 获取正类的概率 # 计算评估指标 test_metrics = { 'Accuracy': accuracy_score(y_test, y_pred), 'Precision': precision_score(y_test, y_pred), 'Recall': recall_score(y_test, y_pred), 'F1': f1_score(y_test, y_pred), 'AUC': roc_auc_score(y_test, y_proba) } for metric, value in test_metrics.items(): print(f"{metric}: {value:.4f}")提升测试模型除recall的指标

import numpy as np import pandas as pd import tensorflow as tf from sklearn.preprocessing import LabelEncoder from sklearn.model_selection import train_test_split from sklearn.decomposition import PCA from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv1D, MaxPooling1D, Flatten, Dense, Dropout, Activation from sklearn.metrics import auc, accuracy_score, f1_score, recall_score # 读入数据 data = pd.read_csv('company_data.csv') X = data.iloc[:, :-1].values y = data.iloc[:, -1].values # 利用LabelEncoder将标签进行编码 encoder = LabelEncoder() y = encoder.fit_transform(y) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 对特征进行PCA降维 pca = PCA(n_components=17) X_train = pca.fit_transform(X_train) X_test = pca.transform(X_test) # 对数据reshape为符合卷积层输入的格式 X_train = X_train.reshape(-1, 17, 1) X_test = X_test.reshape(-1, 17, 1) # 构建卷积神经网络模型 model = Sequential() model.add(Conv1D(filters=128, kernel_size=3, activation='relu', input_shape=(17, 1))) model.add(Conv1D(filters=128, kernel_size=4, activation='relu')) model.add(Conv1D(filters=128, kernel_size=5, activation='relu')) model.add(MaxPooling1D(pool_size=2)) model.add(Flatten()) model.add(Dense(units=64, activation='relu')) model.add(Dense(units=1, activation='sigmoid')) # 编译模型 model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) # 训练模型 model.fit(X_train, y_train, batch_size=64, epochs=10, validation_data=(X_test, y_test), verbose=1) # 在测试集上评估模型 y_pred = model.predict(X_test) y_pred = np.round(y_pred).flatten() # 计算各项指标 auc_score = auc(y_test, y_pred) accuracy = accuracy_score(y_test, y_pred) f1score = f1_score(y_test, y_pred) recall = recall_score(y_test, y_pred) # 打印输出各项指标 print("AUC score:", auc_score) print("Accuracy:", accuracy) print("F1 score:", f1score) print("Recall:", recall) 这个代码有什么错误

最新推荐

recommend-type

JAVA贪吃蛇游戏毕业设计(源代码+论文).zip

Java项目课程设计,包含源码+数据库+论文
recommend-type

北京村界(村级行政界线)矢量数据

村级行政界线数据 数据格式:矢量格式(.shp) 时间范围:每个省份年份不同,基本为2020年到2022年 数据坐标:CGCS2000/WGS1984 备注:由于村级行政界线小部分每年会有调整,所以该数据有部分地区不是最新界线。
recommend-type

基于LabVIEW与Halcon的机器视觉条形码识别技术及其应用

内容概要:本文详细介绍了利用LabVIEW和Halcon实现高效的条形码识别方法。LabVIEW作为一种图形化编程环境,擅长于硬件交互和流程控制;而Halcon作为专业的机器视觉库,则专注于图像处理和模式识别。二者结合可以在多个领域如工业自动化、物流管理和仓储管理中提供快速准确的条形码读取服务。文中不仅阐述了具体的实现步骤,包括图像采集、传递给Halcon处理以及最终结果显示等环节,还讨论了一些常见的调试技巧和技术细节,例如如何应对不同类型的条形码、优化参数设置以提升识别精度等问题。 适合人群:从事机器视觉、工业自动化领域的工程师和技术人员,尤其是那些希望深入了解条形码识别系统的开发者。 使用场景及目标:适用于需要高效条形码识别的应用场合,如生产线上的产品跟踪、零售业的商品管理等。通过学习本文提供的技术和实践经验,可以帮助读者构建更加稳健可靠的条形码识别系统。 其他说明:文中提及了许多实用的技术要点,如正确配置图像格式、处理特殊材质表面上的条形码、多线程并发处理等,这些都是成功实施条形码识别项目的关键因素。此外,作者还分享了关于版本兼容性和授权许可方面的注意事项,这对于项目的长期维护非
recommend-type

#_ssm_127_mysql_私人书店管理系统_.zip

Java项目t基于ssm的课程设计,包含源码+数据库+论文
recommend-type

(源码)基于Arduino框架的ADS1256模数转换库.zip

# 基于Arduino框架的ADS1256模数转换库 ## 项目简介 本项目是一个基于Arduino框架的ADS1256模数转换器(ADC)驱动库。ADS1256是德州仪器(TI)生产的一款高性能8通道24位ADC,适用于高精度数据采集应用。该库旨在提供轻量级、易移植且功能全面的接口,方便开发者快速集成和使用ADS1256模块。 ## 主要特性和功能 多通道读取支持单通道、批量通道和滑动通道读取模式。 跨平台支持已在ESP32和ESP8266平台上测试通过,易于移植到其他Arduino兼容设备。 示例丰富提供多个示例程序,展示如何读取原始数据、批量处理数据以及跨通道扫描。 数据上传支持通过HTTP服务器将数据上传至InfluxDB等数据库(ESP8266示例)。 轻量级设计代码简洁,易于理解和扩展。 ## 安装和使用步骤 1. 环境准备 确保已安装Arduino IDE。 下载并解压本项目的源代码。
recommend-type

C#游戏开发教程与实践:应用程序制作

标题与描述重复提及“C#应用程序游戏制作”,这显然是关于使用C#语言开发游戏的内容。C#是一种由微软开发的面向对象的高级编程语言,广泛应用于Windows平台的桌面和服务器端应用程序开发。在游戏开发领域,C#经常与Unity游戏引擎一起使用,因为Unity提供了对C#的全面支持,并且允许开发者利用这一语言来编写游戏逻辑、控制游戏流程和实现各种交互效果。 根据标题和描述,我们可以提炼出以下几点关键知识点: 1. C#编程基础 C#是一种强类型、面向对象的编程语言。游戏开发人员需要熟悉C#的基本语法,包括数据类型、控制结构、类和对象、继承、接口、委托、事件等。这些是使用C#进行游戏开发的基础。 2. Unity游戏引擎 Unity是一个跨平台的游戏开发引擎,支持2D和3D游戏的开发。Unity编辑器提供场景编辑、物理引擎、光照、动画等多种工具。Unity支持C#作为主要的脚本语言,使得游戏开发者可以利用C#来编写游戏逻辑和交互。 3. 游戏开发流程 游戏制作是一个涉及多个阶段的过程,包括概念设计、原型开发、内容创建、编程、测试和发布。了解C#在游戏开发每个阶段中的应用是十分重要的。 4. 游戏引擎架构和API 游戏引擎提供的API使得开发者可以访问和控制引擎的各种功能,如渲染、音效、输入管理等。C#开发者需要熟悉Unity的API,以便高效地利用引擎资源。 5. 脚本编写 在Unity中,游戏逻辑通常是通过编写C#脚本实现的。开发者需要掌握如何在Unity项目中创建、组织和调试C#脚本。 6. 性能优化 游戏性能优化是游戏开发中的一个重要方面。了解C#中的内存管理、垃圾回收、性能分析工具等,对于确保游戏流畅运行至关重要。 7. 图形和动画 C#与Unity结合可以用来创建游戏中的2D和3D图形以及动画。开发者需要掌握如何使用C#代码来控制Unity的动画系统和渲染管线。 8. 物理引擎和碰撞检测 Unity内置了物理引擎,C#脚本可以用来控制物理行为,如刚体动力学、力和碰撞检测等。了解如何利用C#在Unity中实现物理交互是游戏开发的一个核心技能。 由于文件名列表中仅提供“练习读取文件”的信息,这并不直接与游戏开发相关,因此我们无法从这个信息中推断出关于游戏制作的额外知识点。不过,阅读和解析文件是编程的基础技能之一,对于游戏开发者来说,能够正确处理和读取项目所需的各类资源文件(如图片、音频、配置文件等)是非常重要的。 综上所述,上述知识点是游戏开发者在使用C#和Unity进行游戏开发过程中必须掌握的核心技能。通过深入学习这些内容,开发者能够更好地利用C#语言来制作出高质量和高性能的游戏作品。
recommend-type

5G网络架构精讲:核心至边缘的全面解析

# 摘要 本文全面分析了5G网络架构的特点、核心网的演进与功能、无线接入网的技术和架构、边缘计算与网络架构的融合,以及5G网络安全架构与策略和网络的管理运维。从5G网络架构的概述入手,深入到核心网虚拟化、网
recommend-type

vscode中配置node

### 配置 Visual Studio Code 的 Node.js 开发环境 #### 安装必要的扩展 为了更好地支持Node.js开发,在Visual Studio Code中推荐安装一些有用的扩展。可以通过访问Visual Studio Code的市场来查找并安装这些扩展,例如JavaScript(ES6) code snippets、Path Intellisense等[^1]。 #### 设置工作区和文件夹结构 当准备在一个新的项目上开始时,应该先创建一个新的文件夹作为项目的根目录,并在这个位置初始化Git仓库(如果打算使用版本控制)。接着可以在命令行工具里执行`npm ini
recommend-type

Thinkphp在线数据库备份与还原操作指南

数据库备份是信息系统中非常重要的一环,它能够在数据丢失、系统故障或受到攻击后,快速恢复数据,减少损失。ThinkPHP是一个流行的PHP开发框架,它提供了一套简便的开发模式,经常被用于快速构建Web应用。在使用ThinkPHP开发过程中,数据库备份和还原是一项基础且必要的工作,尤其是在生产环境中,对于保证数据的安全性和完整性至关重要。 ### 数据库备份的必要性 在进行数据库备份之前,首先要明确备份的目的和重要性。数据库备份的主要目的是防止数据丢失,包括硬件故障、软件故障、操作失误、恶意攻击等原因造成的损失。通过定期备份,可以在灾难发生时迅速恢复到备份时的状态,降低业务中断的风险。 ### ThinkPHP框架与数据库备份 ThinkPHP框架内核自带了数据库操作类DB类,它提供了简单而强大的数据库操作能力。但DB类本身并不直接提供备份和还原数据库的功能。因此,要实现在线备份下载和还原功能,需要借助额外的工具或编写相应的脚本来实现。 ### 数据库在线备份下载 在线备份数据库通常意味着通过Web服务器上的脚本,将数据库数据导出到文件中。在ThinkPHP中,可以结合PHP的PDO(PHP Data Objects)扩展来实现这一功能。PDO扩展提供了一个数据访问抽象层,这意味着无论使用什么数据库,都可以使用相同的函数来执行查询和获取数据。 1. **PDO的使用**:通过ThinkPHP框架中的DB类建立数据库连接后,可以使用PDO方法来执行备份操作。通常,备份操作包括将表结构和数据导出到.sql文件中。 2. **生成.sql文件**:生成.sql文件通常涉及执行SQL的“SAVEPOINT”,“COMMIT”,“USE database_name”,“SELECT ... INTO OUTFILE”等语句。然后通过PHP的`header`函数来控制浏览器下载文件。 3. **ThinkPHP的响应类**:为了方便文件下载,ThinkPHP框架提供了响应类,可以用来设置HTTP头部信息,并输出文件内容给用户下载。 ### 数据库还原 数据库还原是备份的逆过程,即将.sql文件中的数据导入数据库中。在ThinkPHP中,可以编写一个还原脚本,利用框架提供的方法来执行还原操作。 1. **读取.sql文件**:首先需要将上传的.sql文件读取到内存中,可以使用PHP的`file_get_contents()`函数读取文件内容。 2. **执行SQL语句**:读取到.sql文件内容后,通过ThinkPHP的DB类或直接使用PDO对象来执行其中的SQL语句。 3. **处理数据导入**:如果是大型数据库备份,直接通过脚本执行SQL语句可能会耗时较长,可以考虑使用数据库管理工具(如phpMyAdmin)来导入.sql文件,或者使用命令行工具(如mysql命令)进行导入。 ### 安全性考虑 在进行数据库备份和还原时,需要注意安全性的问题: 1. **备份文件的加密存储**:备份得到的.sql文件应存储在安全的位置,并考虑使用密码或其他加密手段进行保护。 2. **还原操作的权限控制**:需要确保只有具备相应权限的用户可以访问和执行还原操作。 3. **数据传输加密**:如果通过Web下载备份文件或上传还原文件,应确保使用HTTPS协议加密数据传输,防止数据被截获。 ### ThinkPHP框架内核的使用 虽然ThinkPHP框架内核不直接提供数据库备份和还原功能,但它的灵活配置和高度扩展性允许开发者快速实现这些功能。例如,可以在ThinkPHP的模块系统中创建一个新的模块,专门用于处理数据库的备份和还原任务。通过模块化的方式,可以将相关代码封装起来,方便维护和扩展。 ### 结论 在ThinkPHP框架中实现数据库的在线备份下载和还原功能,需要开发者具备一定的PHP编程技能和对数据库操作的理解。通过合理运用ThinkPHP框架提供的类和方法,并注意数据安全性问题,开发者可以构建出稳定可靠的备份和还原解决方案,从而保护开发的Web应用的数据安全。
recommend-type

【5G网络新纪元】:掌握5G Toolbox的15个必知技巧

# 摘要 随着第五代移动通信技术(5G)的发展,5G Toolbox作为网络测试与管理的重要工具,提供了网络性能测试、设备管理、网络切片管理和安全管理等方面的技巧和方法。本文首先介绍了5G网络的基础知识和5G Toolbox的基本功能。随后,深入探讨了使用5G Toolbox进行网络性能测试,包括延迟、吞吐量、信号覆盖和质量分析等;网络设备的注册
手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部