import seaborn as sns import pandas as pd import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression df = pd.read_csv('heart.csv') corrmat = df.corr() top_corr_features = corrmat.index plt.figure(figsize=(16,16)) sns.heatmap(df[top_corr_features].corr(),annot=True,cmap="RdYlGn") plt.show() sns.set_style('whitegrid') sns.countplot(x='target',data=df,palette='RdBu_r') plt.show() dataset = pd.get_dummies(df, columns=['sex', 'cp', 'fbs', 'restecg', 'exang', 'slope', 'ca', 'thal']) columns_to_scale = ['age', 'trestbps', 'chol', 'thalach', 'oldpeak'] scaler = StandardScaler() dataset[columns_to_scale] = scaler.fit_transform(dataset[columns_to_scale]) dataset.head() y = dataset['target'] X = dataset.drop(['target'], axis=1) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0) logreg = LogisticRegression() logreg.fit(X_train, y_train) print("Training accuracy: {:.3f}".format(logreg.score(X_train, y_train))) print("Test accuracy: {:.3f}".format(logreg.score(X_test, y_test)))改写为ROC代码

时间: 2023-06-12 18:07:57 浏览: 207
以下是将 Logistic Regression 模型的评估指标改为 ROC 曲线的代码: ```python import seaborn as sns import pandas as pd import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression from sklearn.metrics import roc_curve, auc df = pd.read_csv('heart.csv') # 查看特征相关性 corrmat = df.corr() top_corr_features = corrmat.index plt.figure(figsize=(16,16)) sns.heatmap(df[top_corr_features].corr(),annot=True,cmap="RdYlGn") plt.show() # 查看数据分布 sns.set_style('whitegrid') sns.countplot(x='target',data=df,palette='RdBu_r') plt.show() # 对数据进行 One-hot 编码和标准化 dataset = pd.get_dummies(df, columns=['sex', 'cp', 'fbs', 'restecg', 'exang', 'slope', 'ca', 'thal']) columns_to_scale = ['age', 'trestbps', 'chol', 'thalach', 'oldpeak'] scaler = StandardScaler() dataset[columns_to_scale] = scaler.fit_transform(dataset[columns_to_scale]) dataset.head() # 划分数据集 y = dataset['target'] X = dataset.drop(['target'], axis=1) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0) # 训练模型 logreg = LogisticRegression() logreg.fit(X_train, y_train) # 评估模型 y_train_pred = logreg.predict_proba(X_train)[:, 1] y_test_pred = logreg.predict_proba(X_test)[:, 1] fpr_train, tpr_train, thresholds_train = roc_curve(y_train, y_train_pred) fpr_test, tpr_test, thresholds_test = roc_curve(y_test, y_test_pred) roc_auc_train = auc(fpr_train, tpr_train) roc_auc_test = auc(fpr_test, tpr_test) # 绘制 ROC 曲线 plt.figure() plt.plot(fpr_train, tpr_train, color='darkorange', lw=2, label='Train ROC curve (area = %0.2f)' % roc_auc_train) plt.plot(fpr_test, tpr_test, color='navy', lw=2, label='Test ROC curve (area = %0.2f)' % roc_auc_test) plt.plot([0, 1], [0, 1], color='black', lw=2, linestyle='--') plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate') plt.title('Receiver operating characteristic') plt.legend(loc="lower right") plt.show() ``` 在这个代码中,我们使用 `roc_curve` 函数计算训练集和测试集的 FPR 和 TPR,然后使用 `auc` 函数计算 ROC 曲线下的面积。最后,我们使用 `matplotlib` 库绘制 ROC 曲线。

相关推荐

#倒入相关库文件 import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns from sklearn.preprocessing import MinMaxScaler from sklearn.metrics import accuracy_score from sklearn.metrics import recall_score from sklearn.metrics import precision_score from sklearn.metrics import f1_score from sklearn.model_selection import train_test_split #首先我们先观察一下数据的总体描述 data = pd.read_csv('data.csv') data.describe(include='all') #观察数据的任意五行 data.sample(5) sns.countplot(data["target"]) plt.show() #target一共9个类别。由于是字符型,定义一个函数将target的类别标签转为index表示,方便后面计算交叉熵 def target2idx(targets): target_idx = [] target_labels = ['Class_1', 'Class_2', 'Class_3', 'Class_4', 'Class_5', 'Class_6', 'Class_7', 'Class_8', 'Class_9','Class_10'] for target in targets: target_idx.append(target_labels.index(target)) return target_idx #向量转化函数(提供参考,自行选择是否使用) def convert_to_vectors(c): m = len(c) k = np.max(c) + 1 y = np.zeros(m * k).reshape(m,k) for i in range(m): y[i][c[i]] = 1 return y #特征处理函数(提供参考,自行选择是否使用) def process_features(X): scaler = MinMaxScaler(feature_range=(0,1)) X = scaler.fit_transform(1.0*X) m, n = X.shape X = np.c_[np.ones((m, 1)), X] return X #数据获取样例,可自行处理 X = np.array(data)[:,1:-1].astype(float) c = target2idx(data['target']) y = convert_to_vectors(c) #划分训练集和测试集比例在0.1-0.9之间 X_train, X_test, y_train, y_test, c_train, c_test = train_test_split(X, y, c, random_state = 0, test_size = 0.2) #模型训练及预测 #计算指标,本指标使用加权的方式计算多分类问题,accuracy和recall相等,可将其原因写入报告 accuracy = accuracy_score(c_test, c_pred) precision = precision_score(c_test, c_pred,average = 'weighted') recall = recall_score(c_test, c_pred,average = 'weighted') f1 = f1_score(c_test, c_pred,average = 'weighted') print("accuracy = {}".format(accuracy)) print("precision = {}".format(precision)) print("recall = {}".format(recall)) print("f1 = {}".format(f1))补全代码

import pandas as pd import matplotlib.pyplot as plt import seaborn as sns from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import confusion_matrix, classification_report, accuracy_score # 1. 数据准备 train_data = pd.read_csv('train.csv') test_data = pd.read_csv('test_noLabel.csv') # 填充缺失值 train_data.fillna(train_data.mean(), inplace=True) test_data.fillna(test_data.mean(), inplace=True) # 2. 特征工程 X_train = train_data.drop(['Label', 'ID'], axis=1) y_train = train_data['Label'] X_test = test_data.drop('ID', axis=1) scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # 3. 模型建立 model = RandomForestClassifier(n_estimators=100, random_state=42) # 4. 模型训练 model.fit(X_train, y_train) # 5. 进行预测 y_pred = model.predict(X_test) # 6. 保存预测结果 df_result = pd.DataFrame({'ID': test_data['ID'], 'Label': y_pred}) df_result.to_csv('forecast_result.csv', index=False) # 7. 模型评估 y_train_pred = model.predict(X_train) print('训练集准确率:', accuracy_score(y_train, y_train_pred)) print('测试集准确率:', accuracy_score(y_test, y_pred)) print(classification_report(y_test, y_pred)) # 8. 绘制柱形图 feature_importances = pd.Series(model.feature_importances_, index=X_train.columns) feature_importances = feature_importances.sort_values(ascending=False) plt.figure(figsize=(10, 6)) sns.barplot(x=feature_importances, y=feature_importances.index) plt.xlabel('Feature Importance Score') plt.ylabel('Features') plt.title('Visualizing Important Features') plt.show() # 9. 对比类分析 train_data['Label'].value_counts().plot(kind='bar', color=['blue', 'red']) plt.title('Class Distribution') plt.xlabel('Class') plt.ylabel('Frequency') plt.show()

import nltk.corpus import pandas as pd import re import matplotlib.pyplot as plt import seaborn as sns from stanfordcorenlp import StanfordCoreNLP # 导入数据 df = pd.read_csv('D:/file document/desktop/语料库大作业/Tweets.csv', usecols=['airline_sentiment', 'text']) def sentiment(x): if x == 'positive': return 1 elif x == 'negative': return -1 else: return 0 from nltk.corpus import stopwords from nltk.stem import SnowballStemmer from nltk.tokenize import RegexpTokenizer # 去除停用词 stopwords = nltk.corpus.stopwords.words('english') # 词还原 stemmer = SnowballStemmer('english') # 分词 tokenizer = RegexpTokenizer(r'\w+') # As this dataset is fetched from twitter so it has lots of people tag in tweets # we will remove them tags = r"@\w*" def preprocess_text(sentence, stem=False): # 去除text中一些影响文本分析的标签 sentence = [re.sub(tags, "", sentence)] text = [] for word in sentence: if word not in stopwords: if stem: text.append(stemmer.stem(word).lower()) else: text.append(word.lower()) return tokenizer.tokenize(" ".join(text)) # 将用preprocess_text() 函数处理后的text列保存回原始 DataFrame 的 text 列中 df['text'] = df['text'].map(preprocess_text) output_file = 'D:/file document/desktop/语料库大作业/output2.csv' # 输出文件路径 nlp = StanfordCoreNLP(r"D:/AppData/stanfordnlp", lang="en") # 定义函数,用于对指定文本进行依存句法分析 def dependency_parse(sentence): result = nlp.dependency_parse(sentence) return result # 对某一列进行依存句法分析,并将结果保存到新的一列中 df['dependency_parse'] = df['text'].apply(lambda x: dependency_parse(" ".join(x))) # 将结果保存到输出文件中 df.to_csv(output_file, index=False) nlp.close()优化这段代码

import pandas as pd data = pd.read_excel('C:\Users\home\Desktop\新建文件夹(1)\支撑材料\数据\111.xlsx','Sheet5',index_col=0) data.to_csv('data.csv',encoding='utf-8') import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt df = pd.read_csv(r"data.csv", encoding='utf-8', index_col=0).reset_index(drop=True) df from sklearn import preprocessing df = preprocessing.scale(df) df covX = np.around(np.corrcoef(df.T),decimals=3) covX featValue, featVec= np.linalg.eig(covX.T) featValue, featVec def meanX(dataX): return np.mean(dataX,axis=0) average = meanX(df) average m, n = np.shape(df) m,n data_adjust = [] avgs = np.tile(average, (m, 1)) avgs data_adjust = df - avgs data_adjust covX = np.cov(data_adjust.T) covX featValue, featVec= np.linalg.eig(covX) featValue, featVec tot = sum(featValue) var_exp = [(i / tot) for i in sorted(featValue, reverse=True)] cum_var_exp = np.cumsum(var_exp) plt.bar(range(1, 14), var_exp, alpha=0.5, align='center', label='individual explained variance') plt.step(range(1, 14), cum_var_exp, where='mid', label='cumulative explained variance') plt.ylabel('Explained variance ratio') plt.xlabel('Principal components') plt.legend(loc='best') plt.show() eigen_pairs = [(np.abs(featValue[i]), featVec[:, i]) for i in range(len(featValue))] eigen_pairs.sort(reverse=True) w = np.hstack((eigen_pairs[0][1][:, np.newaxis], eigen_pairs[1][1][:, np.newaxis])) X_train_pca = data_adjust.dot(w) colors = ['r', 'b', 'g'] markers = ['s', 'x', 'o'] for l, c, m in zip(np.unique(data_adjust), colors, markers): plt.scatter(data_adjust,data_adjust, c=c, label=l, marker=m) plt.xlabel('PC 1') plt.ylabel('PC 2') plt.legend(loc='lower left') plt.show()

最新推荐

recommend-type

基于java的校园美食交流系统设计与实现.docx

基于java的校园美食交流系统设计与实现.docx
recommend-type

#_ssm_126_mysql_实习支教中小学学校信息管理系统_.zip

均包含代码,文章,部分项目包含ppt
recommend-type

基于python的酒店评论中文情感分析系统源码+设计文档+数据集.zip

基于python的酒店评论中文情感分析系统源码+设计文档+数据集.zip基于python的酒店评论中文情感分析系统源码+设计文档+数据集.zip基于python的酒店评论中文情感分析系统源码+设计文档+数据集.zip 个人大四的毕业设计、课程设计、作业、经导师指导并认可通过的高分设计项目,评审平均分达96.5分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。 [资源说明] 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设或者课设、作业,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96.5分,放心下载使用! 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),供学习参考。
recommend-type

深入理解23种设计模式

"二十三种设计模式.pdf" 在软件工程中,设计模式是解决常见问题的可重用解决方案,它们代表了在特定上下文中被广泛接受的、经过良好验证的最佳实践。以下是二十三种设计模式的简要概述,涵盖了创建型、结构型和行为型三大类别: A. 创建型模式: 1. 单例模式(Singleton):确保一个类只有一个实例,并提供全局访问点。避免多线程环境下的并发问题,通常通过双重检查锁定或静态内部类实现。 2. 工厂方法模式(Factory Method)和抽象工厂模式(Abstract Factory):为创建对象提供一个接口,但允许子类决定实例化哪一个类。提供了封装变化的平台,增加新的产品族时无须修改已有系统。 3. 建造者模式(Builder):将复杂对象的构建与表示分离,使得同样的构建过程可以创建不同的表示。适用于当需要构建的对象有多个可变部分时。 4. 原型模式(Prototype):通过复制现有的对象来创建新对象,减少了创建新对象的成本,适用于创建相似但不完全相同的新对象。 B. 结构型模式: 5. 适配器模式(Adapter):使两个接口不兼容的类能够协同工作。通常分为类适配器和对象适配器两种形式。 6. 代理模式(Proxy):为其他对象提供一种代理以控制对这个对象的访问。常用于远程代理、虚拟代理和智能引用等场景。 7. 外观模式(Facade):为子系统提供一个统一的接口,简化客户端与其交互。降低了系统的复杂度,提高了系统的可维护性。 8. 组合模式(Composite):将对象组合成树形结构以表示“部分-整体”的层次结构。它使得客户代码可以一致地处理单个对象和组合对象。 9. 装饰器模式(Decorator):动态地给对象添加一些额外的职责,提供了比继承更灵活的扩展对象功能的方式。 10. 桥接模式(Bridge):将抽象部分与实现部分分离,使它们可以独立变化。实现了抽象和实现之间的解耦,使得二者可以独立演化。 C. 行为型模式: 11. 命令模式(Command):将请求封装为一个对象,使得可以用不同的请求参数化其他对象,支持撤销操作,易于实现事件驱动。 12. 观察者模式(Observer):定义对象间的一对多依赖关系,当一个对象的状态发生改变时,所有依赖于它的对象都会得到通知并自动更新。 13. 迭代器模式(Iterator):提供一种方法顺序访问聚合对象的元素,而不暴露其底层表示。Java集合框架中的迭代器就是典型的实现。 14. 模板方法模式(Template Method):定义一个操作中的算法骨架,而将一些步骤延迟到子类中。使得子类可以不改变一个算法的结构即可重定义该算法的某些特定步骤。 15. 访问者模式(Visitor):表示一个作用于某对象结构中的各元素的操作。它可以在不改变各元素的类的前提下定义作用于这些元素的新操作。 16. 责任链模式(Chain of Responsibility):避免将处理逻辑硬编码在一个对象中,将一系列的对象链接起来,形成一条链,沿着链传递请求,直到某个对象处理该请求。 17. 状态模式(State):允许一个对象在其内部状态改变时改变它的行为,对象看起来似乎改变了它的类。 18. 策略模式(Strategy):定义了一系列的算法,并将每一个算法封装起来,使它们可以相互替换。策略对象改变算法的变化,可以影响使用算法的类。 19. 备忘录模式(Memento):在不破坏封装性的前提下,捕获一个对象的内部状态,并在该对象之外保存这个状态,以便以后恢复对象的状态。 20. 解释器模式(Interpreter):提供一个语言的文法表示,并定义了一个解释器,用于解释语言中的句子。 设计模式是软件开发中的一种经验总结,它们可以帮助我们编写更加灵活、可扩展和可维护的代码。理解和掌握这些设计模式,对于提高软件设计能力、优化代码结构、减少重复工作具有重要意义。在实际开发中,根据具体场景选择合适的设计模式,可以使代码更具可读性和可复用性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【编程实战】:打造健壮的string to int转换函数

![string to int](https://d8it4huxumps7.cloudfront.net/uploads/images/64f6cb6175ee2_type_casting_type_conversion_in_c_6.jpg) # 1. 转换函数的重要性与应用场景 在软件开发中,数据类型的转换是一个不可或缺的过程。特别是在处理用户输入、数据交换和数据存储时,字符串到整数(string to int)的转换函数是应用最广泛的转换操作之一。这一转换过程不仅对数据准确性至关重要,而且在确保系统性能和处理异常输入方面扮演着关键角色。 转换函数不仅仅是一个简单的数据类型转换,它还
recommend-type

Win11离线安装net framework 3.5方法

在Windows 11上安装.NET Framework 3.5的离线方法并不直接支持,因为Microsoft从Windows 8.1开始就停止了对.NET 3.5的正式支持,并且从Windows 10 Fall Creators Update之后不再提供.net framework的离线安装包。然而,如果你确实需要这个版本,你可以尝试以下步骤,但这可能会有一些风险: 1. **下载安装文件**:虽然官方渠道不再提供,你可以在一些技术论坛或第三方网站找到旧版的.NET Framework ISO镜像或者安装文件,但请注意这可能不是微软官方发布的,可能存在兼容性和安全性问题。 2. **创建
recommend-type

制作与调试:声控开关电路详解

"该资源是一份关于声控开关制作的教学资料,旨在教授读者如何制作和调试声控开关,同时涵盖了半导体三极管的基础知识,包括其工作原理、类型、测量方法和在电路中的应用。" 声控开关是一种利用声音信号来控制电路通断的装置,常用于节能照明系统。在制作声控开关的过程中,核心元件是三极管,因为三极管在电路中起到放大和开关的作用。 首先,我们需要理解三极管的基本概念。三极管是电子电路中的关键器件,分为两种主要类型:NPN型和PNP型。它们由两个PN结构成,分别是基极(b)、集电极(c)和发射极(e)。电流从发射极流向集电极,而基极控制这个电流。NPN型三极管中,电流从基极到发射极是正向的,反之对于PNP型。 在选择和测试三极管时,要关注其参数,如电流放大系数β,它决定了三极管放大电流的能力。例如,90××系列的三极管,如9013、9012、9014和9018,分别对应不同特性的NPN型和PNP型三极管。此外,还有不同封装形式,如塑料封装或金属封装,以及不同功能的标识,如开关管、低频小功率管等。 在声光控开关电路中,声控部分通常涉及麦克风或其他声音传感器,当接收到特定音量或频率的声音时,会触发信号。这个信号通过三极管进行放大,进而控制可控硅或场效应管,使电路闭合,从而开启负载(如照明设备)。照明时间控制在1分钟内,这可能涉及到延时电路的设计,如使用定时器芯片。 在实际操作中,需要用到的工具包括示波器来测量三极管的特性曲线,确保其工作在正确的区域。电路安装和调试则要求对电路原理有深入的理解,包括放大电路的分析和元件的正确连接。 制作声控开关不仅是学习电子技术的一种实践方式,也是理解半导体器件工作原理的良好途径。通过这样的项目,不仅可以提升动手能力,还能增强对基础电子学理论的理解。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【性能测试与优化】:string to int转换的基准测试分析

# 1. 性能测试与优化概述 ## 1.1 性能测试与优化的重要性 在IT行业,随着用户需求的不断增长和技术的快速发展,系统的性能成为衡量一个产品成功与否的关键指标之一。性能测试是一种评估软件系统性能的方法,其目的在于通过合理的测试手段发现系统性能瓶颈,并为优化提供依据。优化,则是在性能测试的基础上,通过各种手段提升系统性能,满足业务需求。 ## 1.2 性能测试的目的与方法 性能测试的目的是为了验证系统能够满足性能需求,而不是简单地找出系统存在的问题。常见的性能测试方法包括负载测试、压力测试、稳定性测试和容量测试等。通过这些测试,我们可以了解到系统在特定条件下的行为表现,如响应时间、