df_new = df.drop(columns=["姓名", "位置","球队"]) # 去除非数值型数据 X_train,X_test,Y_train,Y_test=train_test_split(df_new,Pie1_array,test_size=0.2,random_state=180) # 定义模型 def basic_logosticregression(X_train, X_test, Y_train, Y_test): model = LogisticRegression(random_state=0, solver='lbfgs') model.fit(X_train, Y_train) Y_train_pre = model.predict(X_train) Y_test_pre = model.predict(X_test) train_predict_proba = model.predict_proba(X_train) test_predict_proba = model.predict_proba(X_test) confusion_matrix_result = metrics.confusion_matrix(Y_test_pre, Y_test) print('混淆矩阵结果:\n', confusion_matrix_result) plt.figure(figsize=(8, 6)) sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues') # plt.xlabel('预测的标签') # plt.ylabel('实际的标签') print("逻辑回归") print("score_train: " + str(model.score(X_train, Y_train))) print("score_test: " + str(model.score(X_test, Y_test))) basic_logosticregression(X_train,X_test,Y_train,Y_test) Pie_array = np.array(df['球员贡献度']) df_new = df.drop(columns=["姓名", "位置","球队",'球员贡献度']) data=df_new.values.tolist()

时间: 2023-12-24 07:12:57 浏览: 28
这段代码中,首先使用 `df.drop` 方法去掉了数据框 `df` 中的非数值型数据,然后使用 `train_test_split` 方法将数据集划分为训练集和测试集。接下来定义了一个逻辑回归模型 `basic_logosticregression`,并在其中使用 `LogisticRegression` 方法进行训练和预测。最后,将球员贡献度从数据框中提取出来,再次使用 `df.drop` 方法去掉非数值型数据,并将数据转换为列表。 需要注意的是,这段代码中并没有显示 `Pie1_array` 的定义,因此无法确定该变量的含义和类型,难以对代码进行更深入的分析。同时,该代码中的逻辑回归模型没有进行参数调优,可能会影响模型的性能。如果需要对模型进行更深入的分析和优化,可以参考一些相关的教程或者进行自行探索。
相关问题

#根据编程要求,补充下面Begin-End区间的代码 import numpy as np import pandas as pd import numpy as np import pandas as pd from sklearn.tree import DecisionTreeClassifier, export_graphviz # 导入决策树模型 from sklearn.model_selection import train_test_split # 导入数据集划分模块 import matplotlib.pyplot as plt from sklearn.metrics import roc_auc_score from sklearn.metrics import classification_report # 数据的读入与处理 data_path ='/data/bigfiles/7db918ff-d514-49ea-8f6b-ea968df742e9' df = pd.read_csv(data_path,header=None,names=['age', 'workclass', 'fnlwgt', 'education', 'education-num','marital-status','occupation','relationship','race','sex','capital-gain','capital-loss','hours-per-week','native-country','salary']) ######Begin ###### # 去除字符串数值前面的空格 # 去除fnlwgt, capital-gain, capital-loss,特征属性 # 将特征采用哑变量进行编码,字符型特征经过转化可以进行训练 # 将label编码 ###### End ###### ######Begin ###### # 按4:1的比例划分训练和测试集 # 构建模型 #对训练集X_train训练 #对于测试集x_test进行预测 # 其他指标计算 print(classification_report(y_test, x_pre_test)) # 预测测试集概率值 #计算验证集的auc值,参数为预测值和概率估计 ###### End ###### print("auc的值:{}".format(auc))

######Begin ###### # 去除字符串数值前面的空格 df_obj = df.select_dtypes(['object']) df[df_obj.columns] = df_obj.apply(lambda x: x.str.strip()) # 去除fnlwgt, capital-gain, capital-loss,特征属性 df = df.drop(['fnlwgt', 'capital-gain', 'capital-loss'], axis=1) # 将特征采用哑变量进行编码,字符型特征经过转化可以进行训练 df = pd.get_dummies(df) # 将label编码 df['salary'] = df['salary'].apply(lambda x: 1 if x == '>50K' else 0) ###### End ###### ######Begin ###### # 按4:1的比例划分训练和测试集 X = df.drop(['salary'], axis=1) y = df['salary'] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 构建模型 dt = DecisionTreeClassifier(random_state=42) # 对训练集X_train训练 dt.fit(X_train, y_train) # 对于测试集x_test进行预测 x_pre_test = dt.predict(X_test) # 其他指标计算 print(classification_report(y_test, x_pre_test)) # 预测测试集概率值 y_score = dt.predict_proba(X_test)[:, 1] # 计算验证集的auc值,参数为预测值和概率估计 auc = roc_auc_score(y_test, y_score) ###### End ###### print("auc的值:{}".format(auc))

使用Python对Excel表格进行以下数据预处理1.数值型特征列异常点检测和处理 2.定量特征二值化 3.删除特征数据集中无用的那些特征(一般都是字符型数据:人工特征选择) 4.将源文件的特征数据和目标数据分离成两个数据文件 5.将数据分为测试集和训练集(利用sklearn中的函数) 6.利用pandas标准化数据

以下是对Excel表格进行一些常见数据预处理操作的示例代码: 1. 数值型特征列异常点检测和处理 ``` python import pandas as pd import numpy as np from scipy import stats df = pd.read_excel('example.xlsx') # 对数值型特征列进行异常点检测和处理 for column in df.select_dtypes(include=[np.number]).columns: z = np.abs(stats.zscore(df[column])) df = df[(z < 3)] ``` 2. 定量特征二值化 ``` python from sklearn.preprocessing import Binarizer df = pd.read_excel('example.xlsx') # 对指定列进行二值化 binarizer = Binarizer(threshold=2.5) df['Column1'] = binarizer.transform(df[['Column1']]) ``` 3. 删除特征数据集中无用的那些特征 ``` python df = pd.read_excel('example.xlsx') # 删除指定列 df.drop(['Column1', 'Column2'], axis=1, inplace=True) ``` 4. 将源文件的特征数据和目标数据分离成两个数据文件 ``` python df = pd.read_excel('example.xlsx') # 分离特征数据和目标数据 X = df.drop('target', axis=1) y = df['target'] # 保存特征数据和目标数据到不同的文件 X.to_excel('features.xlsx', index=False) y.to_excel('target.xlsx', index=False) ``` 5. 将数据分为测试集和训练集 ``` python from sklearn.model_selection import train_test_split X = pd.read_excel('features.xlsx') y = pd.read_excel('target.xlsx') # 将数据分为测试集和训练集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ``` 6. 利用pandas标准化数据 ``` python from sklearn.preprocessing import StandardScaler X_train = pd.read_excel('X_train.xlsx') X_test = pd.read_excel('X_test.xlsx') # 对训练集和测试集进行标准化处理 scaler = StandardScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) # 将标准化后的数据保存到新的Excel文件中 pd.DataFrame(X_train_scaled).to_excel('X_train_scaled.xlsx', index=False) pd.DataFrame(X_test_scaled).to_excel('X_test_scaled.xlsx', index=False) ``` 以上是一些常见的数据预处理操作,你可以根据实际需求进行修改和添加。

相关推荐

最新推荐

recommend-type

基于springboot开发的前后端分离的简易进销存后台管理系统.zip

基于springboot的java毕业&课程设计
recommend-type

基于springboot-mqtt的温度、湿度、六氟化硫浓度实时监控系统.zip

基于springboot的java毕业&课程设计
recommend-type

会计信息化对华强公司内部审计的影响研究.docx

会计信息化对华强公司内部审计的影响研究.docx
recommend-type

修改谷歌提供的样例量子卷积神经网络模型,基于KDD99数据集进行训练,实现了网络攻击分类检测。.zip

卷积神经网络(Convolutional Neural Networks, CNNs 或 ConvNets)是一类深度神经网络,特别擅长处理图像相关的机器学习和深度学习任务。它们的名称来源于网络中使用了一种叫做卷积的数学运算。以下是卷积神经网络的一些关键组件和特性: 卷积层(Convolutional Layer): 卷积层是CNN的核心组件。它们通过一组可学习的滤波器(或称为卷积核、卷积器)在输入图像(或上一层的输出特征图)上滑动来工作。 滤波器和图像之间的卷积操作生成输出特征图,该特征图反映了滤波器所捕捉的局部图像特性(如边缘、角点等)。 通过使用多个滤波器,卷积层可以提取输入图像中的多种特征。 激活函数(Activation Function): 在卷积操作之后,通常会应用一个激活函数(如ReLU、Sigmoid或tanh)来增加网络的非线性。 池化层(Pooling Layer): 池化层通常位于卷积层之后,用于降低特征图的维度(空间尺寸),减少计算量和参数数量,同时保持特征的空间层次结构。 常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。 全连接层(Fully Connected Layer): 在CNN的末端,通常会有几层全连接层(也称为密集层或线性层)。这些层中的每个神经元都与前一层的所有神经元连接。 全连接层通常用于对提取的特征进行分类或回归。 训练过程: CNN的训练过程与其他深度学习模型类似,通过反向传播算法和梯度下降(或其变种)来优化网络参数(如滤波器权重和偏置)。 训练数据通常被分为多个批次(mini-batches),并在每个批次上迭代更新网络参数。 应用: CNN在计算机视觉领域有着广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。 它们也已被扩展到处理其他类型的数据,如文本(通过卷积一维序列)和音频(通过卷积时间序列)。 随着深度学习技术的发展,卷积神经网络的结构和设计也在不断演变,出现了许多新的变体和改进,如残差网络(ResNet)、深度卷积生成对抗网络(DCGAN)等。
recommend-type

用泽尼克多项式拟合表面的功能matlab代码.zip

1.版本:matlab2014/2019a/2021a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

SQL怎么实现 数据透视表

SQL可以通过使用聚合函数和GROUP BY子句来实现数据透视表。 例如,假设有一个销售记录表,其中包含产品名称、销售日期、销售数量和销售额等信息。要创建一个按照产品名称、销售日期和销售额进行汇总的数据透视表,可以使用以下SQL语句: ``` SELECT ProductName, SaleDate, SUM(SaleQuantity) AS TotalQuantity, SUM(SaleAmount) AS TotalAmount FROM Sales GROUP BY ProductName, SaleDate; ``` 该语句将Sales表按照ProductName和SaleDat
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。