spark写入csv文件
时间: 2023-08-05 22:47:17 浏览: 117
写入csv文件.cs
在 Spark 中将数据写入 CSV 文件,可以使用如下代码:
```python
df.write \
.format("csv") \
.option("header", "true") \
.option("sep", ",") \
.mode("overwrite") \
.save("/path/to/csv")
```
其中,`df` 是一个 DataFrame 对象,需要写入 CSV 文件的数据。`.format("csv")` 表示将数据写入 CSV 格式文件,`.option("header", "true")` 表示写入 CSV 文件时包含表头(即 DataFrame 的列名),`.option("sep", ",")` 表示使用逗号作为字段分隔符。`.mode("overwrite")` 表示如果文件已经存在,则覆盖原文件。最后,`.save("/path/to/csv")` 表示将数据写入到指定的 CSV 文件路径。
需要注意的是,这个方法返回的是一个 DataFrameWriter 对象,如果需要在写入 CSV 文件后继续进行其他操作,可以对该对象进行链式调用。例如,可以在 `.save()` 方法后面加上 `.show()` 方法,以在控制台上显示写入的数据:
```python
df.write \
.format("csv") \
.option("header", "true") \
.option("sep", ",") \
.mode("overwrite") \
.save("/path/to/csv") \
.show()
```
这样做会在控制台上显示写入的 CSV 文件内容。
另外,如果需要将多个 DataFrame 写入同一个 CSV 文件,可以使用 `union()` 方法将它们合并到一个 DataFrame 中,然后再使用上述方法将数据写入 CSV 文件。
阅读全文