spark读多个列数不同的csv文件,合并成一个dataframe
时间: 2024-03-07 17:38:31 浏览: 105
spark解析csv文件,存入数据库
可以使用 pandas 库中的 read_csv() 函数,设置参数 usecols 来读取需要的列,然后使用 concat() 函数将多个 data frame 合并成一个。代码示例:
import pandas as pd
# 读取第一个 csv 文件,只读取第一列和第二列
df1 = pd.read_csv('file1.csv', usecols=[0, 1])
# 读取第二个 csv 文件,只读取第一列和第三列
df2 = pd.read_csv('file2.csv', usecols=[0, 2])
# 合并两个 data frame
result_df = pd.concat([df1, df2], axis=1)
print(result_df)
阅读全文