spark编程实例
时间: 2023-06-29 10:15:00 浏览: 31
好的,下面是一个使用Spark编写的简单的WordCount程序的实例:
```scala
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
object WordCount {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("WordCount").setMaster("local")
val sc = new SparkContext(conf)
val input: RDD[String] = sc.textFile("input.txt")
val words: RDD[String] = input.flatMap(line => line.split(" "))
val counts: RDD[(String, Int)] = words.map(word => (word, 1)).reduceByKey(_ + _)
counts.saveAsTextFile("output")
sc.stop()
}
}
```
这个程序可以统计一个文本文件中各单词出现的次数,并将结果保存到一个文本文件中。程序主要分为以下几个步骤:
1. 创建SparkConf对象,并设置应用程序的名称和运行模式。
2. 创建SparkContext对象,用于连接Spark集群。
3. 使用SparkContext对象的textFile方法读取输入的文本文件,生成一个RDD对象。
4. 使用flatMap方法将每行文本拆分成单词,并生成一个新的RDD对象。
5. 使用map和reduceByKey方法统计每个单词出现的次数,并生成一个新的RDD对象。
6. 使用saveAsTextFile方法将结果保存到一个文本文件中。
7. 关闭SparkContext对象。
这是一个简单的Spark编程实例,希望能对你有所帮助。
相关推荐
















