df_table_all = pd.read_csv

时间: 2024-03-13 22:41:14 浏览: 104

df_table_all = pd.read_csv是一个用于读取CSV文件的函数,它是pandas库中的一个方法。通过这个函数,我们可以将CSV文件中的数据读取到一个DataFrame对象中,以便进行后续的数据处理和分析。

在使用这个函数时,需要传入CSV文件的路径作为参数,例如: df_table_all = pd.read_csv("data.csv")

这样就可以将名为"data.csv"的CSV文件中的数据读取到df_table_all这个DataFrame对象中了。

相关问题

import pandas as pd import numpy as np from sklearn.preprocessing import Imputer from sklearn.model_selection import train_test_split df_table_all = pd.read_csv("D:\python_pytharm\datasets\chapter3_data_handled\\train_all.csv", index_col=0) df_table_all = df_table_all.drop(['LOAN_DATE_x'], axis=1) df_table_all = df_table_all.drop(['LOAN_DATE_y'], axis=1) df_table_all = df_table_all.dropna(axis=1,how='all') columns = df_table_all.columns imr = Imputer(missing_values='NaN', strategy='mean', axis=0) df_table_all = pd.DataFrame(imr.fit_transform(df_table_all.values)) df_table_all.columns = columns df_table_all.to_csv("D:\python_pytharm\datasets\chapter3_data_handled\\trainafter.csv")解释代码

这段代码主要进行数据处理,包括读取csv文件、删除指定列和删除全为NaN的列。然后使用Imputer类对NaN值进行填充,填充方法为使用该列的平均值。最后将处理后的数据保存为新的csv文件。

具体代码解释如下:

  1. import pandas as pd import numpy as np from sklearn.preprocessing import Imputer from sklearn.model_selection import train_test_split 导入所需的库和模块。

  2. df_table_all = pd.read_csv("D:\python_pytharm\datasets\chapter3_data_handled\train_all.csv", index_col=0) 使用pandas库中的read_csv()函数读取指定路径下的csv文件,将其存储为DataFrame格式,并将第一列作为索引列。

  3. df_table_all = df_table_all.drop(['LOAN_DATE_x'], axis=1) df_table_all = df_table_all.drop(['LOAN_DATE_y'], axis=1) 使用drop()函数删除指定列。

  4. df_table_all = df_table_all.dropna(axis=1,how='all') 使用dropna()函数删除全为NaN的列。

  5. columns = df_table_all.columns 获取DataFrame的列名。

  6. imr = Imputer(missing_values='NaN', strategy='mean', axis=0) 创建Imputer对象,用于填充NaN值。missing_values参数指定需要填充的值,strategy参数指定填充方法,axis参数指定填充方向。

  7. df_table_all = pd.DataFrame(imr.fit_transform(df_table_all.values)) 使用fit_transform()函数填充NaN值,并将其转换为DataFrame格式。

  8. df_table_all.columns = columns 将DataFrame的列名设置为原始列名。

  9. df_table_all.to_csv("D:\python_pytharm\datasets\chapter3_data_handled\trainafter.csv") 使用to_csv()函数将处理后的数据保存为新的csv文件。

在正确的前提下,用其他形式表达这段代码:import pandas as pd import numpy as np from sklearn.preprocessing import Imputer from sklearn.model_selection import train_test_split df_table_all = pd.read_csv("D:\python_pytharm\datasets\chapter3_data_handled\train_all.csv", index_col=0) df_table_all = df_table_all.drop(['LOAN_DATE_x'], axis=1) df_table_all = df_table_all.drop(['LOAN_DATE_y'], axis=1) df_table_all = df_table_all.dropna(axis=1,how='all') columns = df_table_all.columns imr = Imputer(missing_values='NaN', strategy='mean', axis=0) df_table_all = pd.DataFrame(imr.fit_transform(df_table_all.values)) df_table_all.columns = columns df_table_all.to_csv("D:\python_pytharm\datasets\chapter3_data_handled\trainafter.csv")

使用Python代码块的格式:

import pandas as pd 
import numpy as np 
from sklearn.preprocessing import Imputer 
from sklearn.model_selection import train_test_split 

df_table_all = pd.read_csv("D:\python_pytharm\datasets\chapter3_data_handled\train_all.csv", index_col=0) 
df_table_all = df_table_all.drop(['LOAN_DATE_x'], axis=1) 
df_table_all = df_table_all.drop(['LOAN_DATE_y'], axis=1) 
df_table_all = df_table_all.dropna(axis=1,how='all') 

columns = df_table_all.columns 
imr = Imputer(missing_values='NaN', strategy='mean', axis=0) 
df_table_all = pd.DataFrame(imr.fit_transform(df_table_all.values)) 
df_table_all.columns = columns 
df_table_all.to_csv("D:\python_pytharm\datasets\chapter3_data_handled\trainafter.csv")

这段代码导入了必要的库,读取了一个csv文件并对其进行了预处理,最后将处理后的结果保存到了另一个csv文件中。

向AI提问 loading 发送消息图标

相关推荐

from sklearn import metrics from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from imblearn.combine import SMOTETomek from sklearn.metrics import auc, roc_curve, roc_auc_score from sklearn.feature_selection import SelectFromModel import pandas as pd import numpy as np import matplotlib matplotlib.use('TkAgg') import matplotlib.pyplot as plt from sklearn.metrics import confusion_matrix #1、数据输入 df_table_all = pd.read_csv(r"D:\trainafter.csv",index_col=0) #2、目标和特征区分 X = df_table_all.drop(["Y"],axis=1).values Y = np.array(df_table_all["Y"]) #3、按比例切割数据 X_train,X_test,Y_train,Y_test = train_test_split(X,Y,test_size=0.3,random_state=0) #4、样本平衡, st= SMOTETomek() X_train_st,Y_train_st = st.fit_resample(X_train,Y_train) #4、特征选择: #创建特征选择模型 sfm = SelectFromModel(LogisticRegression(penalty='l1',C=1.0,solver="liblinear")) #训练特征选择模型 sfm.fit(X_train,Y_train) #讲数据转换,剩下重要的特征 X_train_tiny = sfm.transform(X_train) X_test_tiny = sfm.transform(X_test) #5、创建模型 model = LogisticRegression(penalty='l1',C=1.0,solver="liblinear") model.fit(X_train_st_tiny,Y_train_st) #6、预测 y_pred = model.predict_proba(X_test_st_tiny) y_cate = model.predict(X_test_st_tiny) c=confusion_matrix(Y_test,y_cate) print(c) def report_auc(y_true,y_prob,title,out_name="",lw=2): fpr,tpr,_=roc_curve(y_true,y_prob,pos_label=1) print(fpr) print(tpr) plt.figure() plt.plot(fpr,tpr,color="darkorange",lw=lw,lable="ROC curve") plt.plot([0,1],[0,1],color="yellow",lw=lw,linestyle="--") plt.xlim([0,1]) plt.ylim([0,1.05]) plt.title(title) plt.legend(loc='lower right') plt.show(0) plt.savefig(r"d:\LR"+out_name,dpi=800) plt.close("all") report_auc(Y_test,y_pred[:,1],"Logistic with L1 panetly",'LG')

import PySimpleGUI as sg import pandas as pd # 定义窗口布局 layout = [ [sg.Text('选择表格文件')], [sg.Input(), sg.FileBrowse(key='file_1'), sg.Text('表格1')], [sg.Input(), sg.FileBrowse(key='file_2'), sg.Text('表格2')], [sg.Button('查找')], [sg.Text('查找结果:')], [sg.Multiline(size=(60, 10), key='result')], [sg.Button('保存结果')] ] # 创建窗口 window = sg.Window('查找表格数据', layout) # 读取数据并查找相同时间段的数据 def find_data(file_1, file_2): try: # 读取表格数据 df_1 = pd.read_csv(file_1) df_2 = pd.read_csv(file_2) # 找到相同时间段的数据 df = pd.merge(df_1, df_2, on='Time', how='inner') # 返回查找结果 return df.to_string(index=False) except Exception as e: return str(e) # 事件循环 while True: event, values = window.read() if event == sg.WINDOW_CLOSED: break elif event == '查找': # 获取用户选择的文件路径 file_1 = values['file_1'] file_2 = values['file_2'] # 查找数据 result = find_data(file_1, file_2) # 在窗口中显示查找结果 window['result'].update(result) elif event == '保存结果': # 获取当前显示的数据 file_1 = values['file_1'] file_2 = values['file_2'] merged = pd.merge(file_1, file_2, on='Time', how='inner') result3 = merged.loc[(merged['Time'] >= '00:00:00') & (merged['Time'] <= '23:59:59')] table_values = window['result3'] # 将数据保存到新的表格中 save_file = sg.popup_get_file('保存文件', save_as=True, default_extension='.csv') if save_file: save_df = pd.DataFrame(table_values[1:], columns=table_values[0]) save_df.to_csv(save_file, index=False) sg.popup('保存成功!') # 关闭窗口 window.close() 报错

无法在界面中显示合并后的数据: import pandas as pd import PySimpleGUI as sg # 定义窗口布局 layout = [ [sg.Text('选择第一个表格文件:', size=(20, 1)), sg.Input(key='file1'), sg.FileBrowse()], [sg.Text('选择第二个表格文件:', size=(20, 1)), sg.Input(key='file2'), sg.FileBrowse()], [sg.Button('查找相同时间段数据')], [sg.Table(values=[], headings=[], key='table3', enable_events=True, bind_return_key=True)], [sg.Button('保存数据')] ] # 创建窗 window = sg.Window('查找相同时间段数据,作者:Dieter', layout, font=("微软雅黑", 15), default_element_size=(50, 1)) # 当窗口打开时执行的代码 while True: event, values = window.read() if event == sg.WINDOW_CLOSED: break elif event == '查找相同时间段数据': # 获取用户选择的文件路径 file1 = values['file1'] file2 = values['file2'] # 读取两个表格的数据 df1 = pd.read_csv(file1) df2 = pd.read_csv(file2) # 按照时间段合并两个 DataFrame 对象 merged_df = pd.merge(df1, df2, on='Time') # 将合并后的数据显示在表格中 headings = merged_df.columns.tolist() values = merged_df.values.tolist() window['table3'].update(values=values) elif event == '保存数据': # 获取当前显示的数据 table_values = window['table3'].get() # 将数据保存到新的表格中 save_file = sg.popup_get_file('保存文件', save_as=True, default_extension='.csv') if save_file: save_df = pd.DataFrame(table_values[1:], columns=table_values[0]) save_df.to_excel(save_file, index=False) sg.popup('保存成功!')

大家在看

recommend-type

JMeterPlugins的Standard和Extras的jar包.zip

添加这两个jar包即可在jmeter里边创建jdbc concentration configration
recommend-type

spring-boot-security-saml-sample:SBS3 —基于Spring Boot构建的示例SAML 2.0服务提供程序

[SBS3] Spring Boot示例SAML 2.0服务提供程序 项目描述 该项目代表完全基于Spring Framework构建的SAML 2.0 Service Provider的示例实现。 特别是,它展示了如何通过集成Spring Boot和Spring Security SAML开发为联合身份验证设计的Web解决方案。 使用Java注释(无XML)已完全定义了配置。 SSOCircle ( )用作测试的公共身份提供者。 作者: Vincenzo De Notaris( ) 网站: 版本: 2.3.1.RELEASE 最后更新:2020年2月15日 感谢VladimírSchäfer ( )支持我的工作。 参考文献 Sprint Boot 通过Spring Boot,可以轻松创建具有Spring支持的生产级应用程序和服务,而不必大惊小怪。 它从Spring平台的角度出发,以便新老用户都能快速找到所需的信息。 参考: : Spring Security SAML扩展 Spring SAML扩展允许在Spring应用程序中无缝包含SAML 2.0服务提供程序功
recommend-type

基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip

知识图谱基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip 基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip基于neo4j的汽车知识图谱,使用flask构建系统,Echarts可视化.zip
recommend-type

工具类-经度纬度位置处理 以及 距离计算工具类,自用留存

工具类-经度纬度位置处理 以及 距离计算工具类,自用留存
recommend-type

H.323协议详解

H.323详解,讲的很详细,具备参考价值!

最新推荐

recommend-type

Delphi 12.3控件之LMD VCL 2024.4 for D12+crack.7z

Delphi 12.3控件之LMD VCL 2024.4 for D12+crack.7z
recommend-type

基于DSP28335的单相锁相环(SPLL)实现及其在电力电子中的频率与相位跟踪应用

内容概要:本文详细介绍了单相锁相环(SPLL)在TI公司DSP28335芯片上的实现方法及其在电力电子中的应用。主要内容涵盖锁相环的基本概念、DSP28335的硬件配置、SPLL算法的具体实现步骤,包括初始化、相位误差计算、PI控制器的设计、频率和相位的更新机制,以及如何应对电网扰动等问题。此外,文中还提供了详细的代码片段和调试技巧,帮助读者更好地理解和实现SPLL。 适用人群:从事电力电子、自动化控制、嵌入式系统的工程师和技术人员,尤其适用于有一定DSP编程基础的研发人员。 使用场景及目标:① 实现单相锁相环在DSP28335上的稳定运行;② 提供频率和相位跟踪的功能,确保系统在不同电网条件下的稳定性和可靠性;③ 通过调试和优化,提高系统的响应速度和控制精度。 其他说明:文章不仅提供了理论解释,还有具体的代码实现和调试建议,有助于读者快速掌握SPLL的实现方法并在实际项目中应用。
recommend-type

基于MATLAB设计的 GUI漂浮物垃圾分类检测(高分项目).zip

项目已获导师指导并通过的高分毕业设计项目,可作为课程设计和期末大作业,下载即用无需修改,项目完整确保可以运行。 该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。 项目都经过严格调试,确保可以运行!可以放心下载
recommend-type

基于前景与背景分割的图像处理:MATLAB实现流行排序模型及其优化

内容概要:本文详细介绍了基于前景和背景分割的图像处理技术,特别是流行排序模型的MATLAB实现。文章首先解释了图像分割的基本概念以及流行排序模型的工作原理,指出传统模型存在的图结构和边缘权值问题,并提出改进措施。接着,通过具体的MATLAB代码展示了如何读取图像、构建图结构、设置边缘权值、利用标记点进行流形排序,最终实现图像分割。文中还讨论了多种优化手段,如k近邻动态调整图结构、高斯核计算权值、加入坐标信息等,以提高分割精度和效率。此外,针对大尺寸图像提出了超像素预处理的方法。 适合人群:对图像处理感兴趣的科研人员、学生以及有一定编程基础的开发者。 使用场景及目标:适用于需要精确分离图像中前景和背景的应用场合,如医学影像分析、自动驾驶、安防监控等领域。目标是帮助读者掌握基于图的流形排序模型的具体实现方法和技术要点,从而应用于实际项目中。 其他说明:文章提供了完整的MATLAB代码示例,便于读者理解和实践。同时强调了算法的灵活性和可扩展性,鼓励读者尝试不同的参数配置和优化策略,以获得更好的分割效果。
recommend-type

基于MATLAB的界面GUI信号与系统数字信号设计(高分项目).zip

项目已获导师指导并通过的高分毕业设计项目,可作为课程设计和期末大作业,下载即用无需修改,项目完整确保可以运行。 该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。 项目都经过严格调试,确保可以运行!可以放心下载
recommend-type

Delphi7环境下精确字符统计工具的应用

在讨论如何精确统计字符时,我们首先需要明确几个关键点:字符集的概念、编程语言的选择(本例中为Delphi7),以及统计字符时的逻辑处理。由于描述中特别提到了在Delphi7中编译,这意味着我们将重点放在如何在Delphi7环境下实现字符统计的功能,同时处理好中英文字符的区分和统计。 ### 字符集简介 在处理文本数据时,字符集(Character Set)的选择对于统计结果至关重要。字符集是一组字符的集合,它定义了字符编码的规则。常见的字符集有ASCII、Unicode等。 - **ASCII(美国信息交换标准代码)**:它是基于英文字符的字符集,包括大小写英文字母、阿拉伯数字和一些特殊符号,总共128个字符。 - **Unicode**:是一个全球性的字符编码,旨在囊括世界上所有的字符系统。它为每个字符分配一个唯一的代码点,从0到0x10FFFF。Unicode支持包括中文在内的多种语言,因此对于处理多语言文本非常重要。 ### Delphi7编程环境 Delphi7是一个集成开发环境(IDE),它使用Object Pascal语言。Delphi7因其稳定的版本和对旧式Windows应用程序的支持而受到一些开发者的青睐。该环境提供了丰富的组件库,能够方便地开发出各种应用程序。然而,随着版本的更新,新的IDE开始使用更为现代的编译器,这可能会带来向后兼容性的问题,尤其是对于一些特定的代码实现。 ### 中英文字符统计的逻辑处理 在Delphi7中统计中英文字符,我们通常需要考虑以下步骤: 1. **区分中英文字符**: - 通常英文字符的ASCII码范围在0x00到0x7F之间。 - 中文字符大多数使用Unicode编码,范围在0x4E00到0x9FA5之间。在Delphi7中,由于它支持UTF-16编码,可以通过双字节来识别中文字符。 - 可以使用`Ord()`函数获取字符的ASCII或Unicode值,然后进行范围判断。 2. **统计字符数量**: - 在确定了字符范围之后,可以通过遍历字符串中的每一个字符,并进行判断是否属于中文或英文字符范围。 - 每判断为一个符合条件的字符,便对相应的计数器加一。 3. **代码实现**: - 在Delphi7中,可以编写一个函数,接受一个字符串作为输入,返回一个包含中英文字符统计数量的数组或记录结构。 - 例如,使用Object Pascal语言的`function CountCharacters(inputString: string): TCountResult;`,其中`TCountResult`是一个记录或结构体,用于存储中英文字符的数量。 ### 详细实现步骤 1. **创建一个函数**:如`CountCharacters`,输入为待统计的字符串。 2. **初始化计数器**:创建整型变量用于计数英文和中文字符。 3. **遍历字符串**:对字符串中的每个字符使用循环。 4. **判断字符类型**:对字符进行编码范围判断。 - 对于英文字符:如果字符的ASCII值在0x00到0x7F范围内,英文计数器加一。 - 对于中文字符:利用Delphi7的Unicode支持,如果字符为双字节,并且位于中文Unicode范围内,则中文计数器加一。 5. **返回结果**:完成遍历后,返回一个包含中英文字符数量的计数结果。 ### 注意事项 在使用Delphi7进行编程时,需要确保源代码文件的编码设置正确,以便能够正确地识别和处理Unicode字符。此外,由于Delphi7是一个相对较老的版本,与现代系统可能需要特别的配置,尤其是在处理文件和数据库等系统级操作时。在实际部署时,还需要注意应用程序与操作系统版本的兼容性问题。 总结来说,精确统计字符关键在于准确地判断和分类字符,考虑到Delphi7对Unicode的内建支持,以及合理利用Pascal语言的特点,我们能够有效地实现中英文字符的统计功能。尽管Delphi7较新版本可能在某些方面显得不够先进,但凭借其稳定性和可控性,在对旧系统兼容有要求的情况下仍然不失为一个好的选择。
recommend-type

深度剖析GPS基带信号处理:从挑战到优化技术的全面攻略

# 摘要 全球定位系统(GPS)是现代导航和定位技术的核心。本文全面概述了GPS基带信号处理的各个方面,包括GPS信号的理论基础、关键技术、信号质量与误差源分析以及实践方法。接着深入探讨了GPS信号处理中的优化技术,例如算法优化、精准定位技术以及GPS接收器集成创新。最后,文章展望了GPS技术的未来发展趋势,包括技术进步对GPS性能的潜在影响,以及GPS在新兴领域
recommend-type

keil5安装教程stm32和c51

### Keil5 STM32 和 C51 安装教程 #### 准备工作 为了使Keil5能够同时支持STM32和C51,在安装前需准备两个独立的文件夹用于区分不同类型的项目。“KeilC51”作为51系列单片机项目的安装路径,“KeilSTM32”则专供STM32项目使用[^2]。 #### 安装过程 #### C51安装步骤 启动安装程序后,按照提示操作直至到达自定义组件界面。此时应选择仅安装与8051相关的工具链选项,并指定之前创建好的“KeilC51”目录为安装位置[^3]。 完成上述设置之后继续执行剩余的安装流程直到结束。当被询问到许可证密钥时,输入有效的序列号并确认添加至软
recommend-type

Bochs安卓模拟器:提升QA工作效率的利器

标题中提到的“Bochs安卓好工具”指的是一款可以在安卓平台上运行的Bochs模拟器应用。Bochs是一款开源的x86架构模拟器,它能够模拟出完整的x86 PC环境,使得用户能够在非x86架构的硬件上运行x86的操作系统和程序。Bochs安卓版将这一功能带到了安卓设备上,用户可以在安装有该应用的安卓手机或平板电脑上体验到完整的PC模拟环境。 描述部分简单重复了标题内容,未提供额外信息。 标签“QA”可能指代“Question and Answer”,通常用于分类与问题解答相关的主题,但在这里由于缺乏上下文,很难确定其确切含义。 文件名称列表中提到了“Bochs.apk”和“SDL”。这里的“Bochs.apk”应该是指Bochs安卓版的安装包文件。APK是安卓平台应用程序的安装包格式,用户可以通过它在安卓设备上安装和使用Bochs模拟器。而“SDL”指的是Simple DirectMedia Layer,它是一个跨平台的开发库,主要用于提供低层次的访问音频、键盘、鼠标、游戏手柄和图形硬件。SDL被广泛用于游戏开发,但在Bochs中它可能用于图形输出或与安卓设备的硬件交互。 从这些信息中,我们可以提炼出以下知识点: 1. Bochs模拟器的基本概念:Bochs模拟器是一个开源的x86架构模拟器,它能够模拟出完整的PC环境。这意味着用户可以在这个模拟器中运行几乎所有的x86架构操作系统和应用程序,包括那些为PC设计的游戏和软件。 2. Bochs模拟器的主要功能:Bochs模拟器的主要功能包括模拟x86处理器、内存、硬盘、显卡、声卡和其他硬件。它允许用户在不同硬件架构上体验到标准的PC操作体验,特别适合开发者测试软件和游戏兼容性,以及进行系统学习和开发。 3. Bochs安卓版的特点:Bochs安卓版是专为安卓操作系统设计的版本,它将Bochs模拟器的功能移植到了安卓平台。这意味着安卓用户可以利用自己的设备运行Windows、Linux或其他x86操作系统,从而体验到桌面级应用和游戏。 4. 安卓平台应用文件格式:.apk文件格式是安卓平台应用程序的包文件格式,用于分发和安装移动应用。通过安装Bochs.apk文件,用户可以在安卓设备上安装Bochs模拟器,不需要复杂的配置过程,只需点击几次屏幕即可完成。 5. SDL库的应用:SDL库在Bochs安卓版中可能用于提供用户界面和图形输出支持,让用户能够在安卓设备上以图形化的方式操作模拟器。此外,SDL可能还负责与安卓平台的其他硬件交互,如触摸屏输入等。 总结来说,Bochs安卓好工具是一个将x86模拟器功能带入安卓设备的创新应用,它利用APK格式简化了安装过程,并借助SDL库为用户提供了丰富的操作界面和硬件交互体验。这对于需要在移动设备上测试和运行不同操作系统和应用的用户来说,无疑是一个强大的工具。
recommend-type

目标检测技术的演进:从传统方法到YOLO算法的变革

# 摘要 目标检测技术是计算机视觉领域的核心研究方向之一,广泛应用于视频监控、自动驾驶等多个领域。本文首先概述了目标检测技术的发展历程,重点关注了传统目标检
手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部