pyspark dataframe怎么写入csv文件
时间: 2023-05-25 21:02:12 浏览: 189
A:
写入CSV文件是Pyspark dataframe的常见操作。下面是一个简单的示例代码,演示如何将Pyspark dataframe写入CSV文件:
```python
from pyspark.sql import SparkSession
# 创建SparkSession对象
spark = SparkSession.builder.appName("write_to_csv").getOrCreate()
# 创建一个Pyspark dataframe
data = [('Alice', 23), ('Bob', 25), ('Charlie', 30)]
df = spark.createDataFrame(data, ['Name', 'Age'])
# 指定输出CSV文件的路径
output_path = 'path/to/output/csv'
# 将dataframe写入CSV文件
df.write.format("csv").option("header", "true").save(output_path)
```
在上面的代码中,我们使用 `df.write` 方法将Pyspark dataframe写入CSV文件。我们通过 `format` 参数指定了输出数据格式为CSV,`option` 参数指定输出文件中是否包含头部信息。最后,我们将数据保存至 `output_path` 中。
注意,Pyspark dataframe写入CSV文件时可能存在编码问题,可能需要指定编码格式。例如,如果在Windows系统中使用中文字符集,可以添加如下一行代码来指定编码格式:
```python
df.write.format("csv").option("header", "true").option('encoding', 'GBK').save(output_path)
```
阅读全文