pyspark dataframe.groupby 与groupBy
时间: 2024-08-07 11:01:31 浏览: 59
在 Apache PySpark 中,`DataFrame.groupBy()` 和 `.groupby()` 都是用来对 DataFrame 进行分组操作的关键方法。这两个方法本质上是一样的,都用于按照一个或多个列的值来划分 DataFrame 的行,以便我们可以对每个组进行聚合操作。
### 示例及基本用法:
假设我们有一个名为 `df` 的 DataFrame,其中包含以下列: `['age', 'gender', 'score']`,我们想要按性别和年龄分组,并计算每组的平均得分。
```python
import pyspark.sql.functions as F
# 假设我们已经有了一个 DataFrame df
# 使用 groupBy 或 groupby 分组并计算每组的平均 score
result = df.groupBy('gender', 'age').agg(F.avg('score')).selectExpr("gender", "age", "avg(score) as average_score")
```
在这段代码中:
- `groupBy('gender', 'age')` 指定了我们需要按哪些列进行分组。
- `agg(F.avg('score'))` 指定我们希望对哪一列(在这里是 'score' 列)进行聚合操作。我们使用了 `F.avg()` 函数来计算平均值。
- 最后,`selectExpr(...)` 用于指定返回的结果应该如何表示。这里我们将列名和别名明确列出。
### 关于相关问题:
1. **如何使用 groupBy 对特定列求和?**
- 可以像下面这样使用 `agg(F.sum(column_name))` 来对某一列求和。
2. **能否同时使用多列进行分组?**
- 当然可以,只需将它们作为一组传递给 `groupBy` 方法即可。例如,如果还有另一个分类列 `category`,则可以这样写:`df.groupBy('gender', 'age', 'category')`.
3. **是否可以在分组之后过滤某些结果?**
- 组合使用 `filter` 和 `groupBy` 可以在分组之后进一步筛选结果集。例如,找出所有男性在某个特定年龄段的平均分数可以这样实现:
```python
result = df.filter(df.gender == 'male').groupBy('age').agg(F.avg('score'))
```
通过这些示例和讨论,我们了解了如何有效地利用 PySpark 的 `DataFrame.groupBy()` 和 `.groupby()` 方法进行数据分组和聚合操作。
阅读全文