打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,完成任务。 使用 spark-shell 读取文件 /data/bigfiles/employee.json 中的内容,完成以下任务: 查询所有数据 查询所有数据,并去除重复的数据 查询所有数据,打印时去除 id 字段 筛选 age>20 的记录 将数据按 name 分组 将数据按 name 升序排列 取出前 3 行数据 查询所有记录的 name 列,并为其取别名为 username 查询年龄 age 的平均值 查询年龄 age 的最小值
时间: 2024-02-16 17:02:58 浏览: 270
VC如何创建一个大型文件演示源代码
好的,我已经明白你的问题了。下面是代码实现:
1. 查询所有数据
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.show()
```
2. 查询所有数据,并去除重复的数据
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.distinct().show()
```
3. 查询所有数据,打印时去除 id 字段
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.drop("id").show()
```
4. 筛选 age>20 的记录
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.filter("age > 20").show()
```
5. 将数据按 name 分组
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.groupBy("name").count().show()
```
6. 将数据按 name 升序排列
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.orderBy("name").show()
```
7. 取出前 3 行数据
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.limit(3).show()
```
8. 查询所有记录的 name 列,并为其取别名为 username
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.selectExpr("name as username").show()
```
9. 查询年龄 age 的平均值
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.agg(avg("age")).show()
```
10. 查询年龄 age 的最小值
```scala
val employee = spark.read.json("/data/bigfiles/employee.json")
employee.agg(min("age")).show()
```
阅读全文