sparksql到底是什么语法
时间: 2023-10-17 17:54:50 浏览: 95
SparkSql使用入门
引用\[1\]:SQL 语法风格是指我们查询数据的时候使用 SQL 语句来查询,这种风格的查询必须要有临时视图或者全局视图来辅助读取 JSON 文件创建 DataFrame。通过 SQL 语句实现查询全表的示例代码如下:
```
val df = spark.read.json("data/user.json")
df.createOrReplaceTempView("people")
val sqlDF = spark.sql("SELECT * FROM people")
sqlDF.show()
```
引用\[2\]:普通临时表是 Session 范围内的,如果想应用范围内有效,可以使用全局临时表。使用全局临时表时需要全路径访问,如:global_temp.people。通过 SQL 语句实现查询全表的示例代码如下:
```
df.createGlobalTempView("people")
spark.sql("SELECT * FROM global_temp.people").show()
spark.newSession().sql("SELECT * FROM global_temp.people").show()
```
引用\[3\]:关于sparksql的语法,可以使用SQL语句来查询数据,也可以使用DataFrame API来进行操作。Spark SQL支持标准的SQL语法,同时还提供了一些扩展功能,如窗口函数、聚合函数等。可以通过解析SQL语句生成逻辑计划,然后执行该计划来查询数据。具体的语法可以参考Spark SQL的官方文档。
#### 引用[.reference_title]
- *1* *2* [SparkSQL语法](https://blog.csdn.net/cai_and_luo/article/details/113525103)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [SparkSql Cache Table类语法编译原理](https://blog.csdn.net/weixin_44112790/article/details/127280056)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文