sparkSession.sparkContext
时间: 2023-11-28 15:46:05 浏览: 120
SparkRPC简单代码实现.pdf
`sparkSession.sparkContext`是一个SparkSession对象的属性,它返回一个SparkContext对象,用于与Spark集群进行交互。可以使用SparkContext对象来创建RDD、累加器和广播变量等。例如,以下是使用`sparkSession.sparkContext`创建一个RDD的示例:
```python
# 创建一个SparkSession对象
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("example").getOrCreate()
# 使用SparkContext对象创建一个RDD
rdd = spark.sparkContext.parallelize([1, 2, 3, 4, 5])
```
在上面的示例中,我们首先创建了一个SparkSession对象,然后使用`sparkSession.sparkContext`属性创建了一个RDD。这个RDD包含数字1到5。
阅读全文