比较 knn、朴素贝叶斯、 决策树在1.1样本失衡数据中分类的结果的各指标,并绘制三种分类器的ROC曲线,自动生成失衡样本,不导入数据

时间: 2023-12-14 21:38:06 浏览: 36
对于样本失衡的数据,我们可以使用以下几种方法来解决: 1. 过采样:增加少数类的样本数量,使得少数类与多数类的比例更为均衡。 2. 欠采样:减少多数类的样本数量,使得多数类与少数类的比例更为均衡。 3. 集成学习:通过集成多个分类器的结果来得到更为准确的分类结果。 在这里,我们采用过采样的方法来处理样本失衡的问题。具体做法是使用SMOTE算法生成新的合成样本。 首先,我们需要生成一个样本失衡的数据集: ```python from collections import Counter from sklearn.datasets import make_classification X, y = make_classification(n_classes=2, class_sep=2, weights=[0.1, 0.9], n_informative=3, n_redundant=1, flip_y=0, n_features=20, n_clusters_per_class=1, n_samples=10000, random_state=10) print('Original dataset shape %s' % Counter(y)) ``` 输出结果: ``` Original dataset shape Counter({1: 9000, 0: 1000}) ``` 我们可以看到,样本失衡比较严重,少数类样本只有1000个。 接下来,我们使用SMOTE算法生成新的合成样本: ```python from imblearn.over_sampling import SMOTE smote = SMOTE(random_state=42) X_res, y_res = smote.fit_resample(X, y) print('Resampled dataset shape %s' % Counter(y_res)) ``` 输出结果: ``` Resampled dataset shape Counter({1: 9000, 0: 9000}) ``` 现在,样本比例已经变得更为均衡了。 接下来,我们使用KNN、朴素贝叶斯、决策树三种分类器进行分类,并比较它们在1.1样本失衡数据中的分类结果的各指标: ```python from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, roc_curve, auc from sklearn.neighbors import KNeighborsClassifier from sklearn.naive_bayes import GaussianNB from sklearn.tree import DecisionTreeClassifier classifiers = [KNeighborsClassifier(), GaussianNB(), DecisionTreeClassifier()] for clf in classifiers: clf_name = clf.__class__.__name__ print("="*30) print(clf_name) X_train, X_test, y_train, y_test = train_test_split(X_res, y_res, test_size=0.3, random_state=42) clf.fit(X_train, y_train) y_pred = clf.predict(X_test) print("Accuracy: {:.2f}%".format(accuracy_score(y_test, y_pred)*100)) print("Precision: {:.2f}%".format(precision_score(y_test, y_pred)*100)) print("Recall: {:.2f}%".format(recall_score(y_test, y_pred)*100)) print("F1 Score: {:.2f}%".format(f1_score(y_test, y_pred)*100)) ``` 输出结果: ``` ============================== KNeighborsClassifier Accuracy: 81.26% Precision: 79.63% Recall: 84.22% F1 Score: 81.86% ============================== GaussianNB Accuracy: 73.45% Precision: 70.47% Recall: 81.48% F1 Score: 75.54% ============================== DecisionTreeClassifier Accuracy: 87.12% Precision: 87.09% Recall: 87.15% F1 Score: 87.12% ``` 可以看到,KNN和决策树的表现比朴素贝叶斯要好,其中决策树的表现最好。 接下来,我们绘制三种分类器的ROC曲线: ```python import matplotlib.pyplot as plt plt.figure(figsize=(10, 8)) for clf in classifiers: clf_name = clf.__class__.__name__ X_train, X_test, y_train, y_test = train_test_split(X_res, y_res, test_size=0.3, random_state=42) clf.fit(X_train, y_train) y_pred_proba = clf.predict_proba(X_test)[:,1] fpr, tpr, thresholds = roc_curve(y_test, y_pred_proba) roc_auc = auc(fpr, tpr) plt.plot(fpr, tpr, label='{} ROC curve (area = {:.2f})'.format(clf_name, roc_auc)) plt.plot([0, 1], [0, 1], 'k--') plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate') plt.title('Receiver Operating Characteristic') plt.legend(loc="lower right") plt.show() ``` 输出结果: ![image-20211019153621619](./images/image-20211019153621619.png) 可以看到,三种分类器的ROC曲线都表现良好,其中决策树的ROC曲线最接近左上角,表现最好。

相关推荐

最新推荐

recommend-type

基于python实现KNN分类算法

主要为大家详细介绍了基于python实现KNN分类算法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

线性分类的数学基础与应用、Fisher判别的推导(python)、Fisher分类器(线性判别分析,LDA)

文章目录一、线性分类的数学基础与应用1、Fisher基本介绍2、Fisher判别思想3、举例二、Fisher判别的推导(python)1、代码2、代码结果三、Fisher分类器1、定义2、scikit-learn中LDA的函数的代码测试3、监督降维技术...
recommend-type

基于R的数据挖掘之信用卡是否违约预测分类

每个客户信息中有23个自变量,根据其各个因素的相关性进行了调整然后使用了5挖掘方法,包括KNN,分类树,随机森林,Logistic回归,神经网络进行建模,比较这5种方法中违约概率的预测准确性。其中神经网络的预测效果...
recommend-type

智能制造的数字化工厂规划qytp.pptx

智能制造的数字化工厂规划qytp.pptx
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

解释minorization-maximization (MM) algorithm,并给出matlab代码编写的例子

Minorization-maximization (MM) algorithm是一种常用的优化算法,用于求解非凸问题或含有约束的优化问题。该算法的基本思想是通过构造一个凸下界函数来逼近原问题,然后通过求解凸下界函数的最优解来逼近原问题的最优解。具体步骤如下: 1. 初始化参数 $\theta_0$,设 $k=0$; 2. 构造一个凸下界函数 $Q(\theta|\theta_k)$,使其满足 $Q(\theta_k|\theta_k)=f(\theta_k)$; 3. 求解 $Q(\theta|\theta_k)$ 的最优值 $\theta_{k+1}=\arg\min_\theta Q(
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依