PySpark dataframe我想实现将天数列和行为类型列聚合在一起,并算出每天不同的数据类型的总和代码怎么写
时间: 2023-05-23 16:02:24 浏览: 174
你可以使用PySpark的groupBy和pivot方法来实现该需求。代码样例如下:
```python
from pyspark.sql.functions import sum
# 假设你有一个名为df的PySpark DataFrame,它包含列day、列behavior和列count
# 聚合天数列和行为类型列
grouped = df.groupBy("day").pivot("behavior").agg(sum("count"))
# 查看结果
grouped.show()
```
这将返回按天聚合的行为计数总和,每行表示一个不同的天数,每列表示一种不同的行为类型。如果某一天没有对应某种行为类型的数据,则对应的单元格将是null。
阅读全文
相关推荐
![py](https://img-home.csdnimg.cn/images/20250102104920.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![zip](https://img-home.csdnimg.cn/images/20241231045053.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![zip](https://img-home.csdnimg.cn/images/20241231045053.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![zip](https://img-home.csdnimg.cn/images/20241231045053.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![md](https://img-home.csdnimg.cn/images/20250102104920.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![zip](https://img-home.csdnimg.cn/images/20241231045053.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![pdf](https://img-home.csdnimg.cn/images/20241231044930.png)
![pptx](https://img-home.csdnimg.cn/images/20241231044947.png)
![zip](https://img-home.csdnimg.cn/images/20241231045053.png)