dataframe合并文件并且查看
时间: 2024-10-23 16:20:04 浏览: 27
Spark小文件异步合并工具
在数据分析中,当你有多份CSV文件需要合并到一起时,通常会使用pandas库中的`concat()`或`merge()`函数。这里以Python为例:
假设你有两个CSV文件,例如file1.csv和file2.csv,它们都有相同的列结构,你可以这样做:
```python
import pandas as pd
# 加载第一个文件
df1 = pd.read_csv('file1.csv')
# 加载第二个文件
df2 = pd.read_csv('file2.csv')
# 如果你想按照行合并(即水平合并),可以使用 concat:
merged_df = pd.concat([df1, df2], ignore_index=True)
# 如果你想按照列合并(即垂直合并),可以使用 merge(如果两个表之间有共同的键列):
# merged_df = pd.merge(df1, df2, on='common_column', how='outer')
# 查看合并后的数据框
print(merged_df.head()) # 输出前几行数据,便于检查是否正确合并
```
`ignore_index=True` 参数有助于避免原始索引冲突,`on='common_column'` 表示使用名为 'common_column' 的列来合并两个数据框。
阅读全文