pyspark dataframe
时间: 2024-02-10 19:08:40 浏览: 83
pySpark-flatten-dataframe:PySpark函数可展平从JSONCSVSQLParquet加载的任何复杂的嵌套数据框结构
pyspark dataframe是一种基于Spark的分布式数据处理框架,用于处理大规模数据集。它提供了类似于SQL的查询语言和丰富的数据操作功能,可以进行数据筛选、转换、聚合等操作。
以下是两个pyspark dataframe的例子:
1. 使用isin()对数据进行筛选:
```python
from pyspark.sql import Row
# 创建数据
data = [Row(name='Alice', score=78), Row(name='Bob', score=69), Row(name='Jack', score=100)]
df = spark.createDataFrame(data)
使用isin()筛选数据
df.select(df.score.isin([69, 78])).show()
```
输出:
```
+--+
|(score IN (69,78))|
+--+
| true|
| true|
| false|
+--+
```
2. 读取csv文件并显示前10行数据:
```python
from pyspark.sql import SparkSession
from pyspark.sql.types import *
# 创建SparkSession
spark = SparkSession.builder.appName("csvRDD").getOrCreate()
# 定义schema
schema = StructType([
StructField('State', StringType()),
StructField('Color', StringType()), StructField('Count', IntegerType())
])
# 读取csv文件
df = spark.read.format('csv').option("header", True).schema(schema).load(r'/data/mnm_dataset.csv')
# 显示前10行数据
df.show(10)
```
输出:
```
+--+--+--+
|State|Color|Count|
+--+--+--+
| CA| Brown| 36|
| CA| Brown| 29|
| CA| Brown| 39|
| CA| Brown| 38|
| CA| Brown| 28|
| CA| Brown| 35|
| CA| Brown| 41|
| CA| Brown| 33|
| CA| Brown| 36|
| CA| Brown| 32|
+--+--+--+
```
阅读全文