yarn jar $YARN_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi -Dmapreduce.job.queuename=root.etl 10 1000
时间: 2024-05-26 07:17:28 浏览: 140
这是一个运行在 YARN 集群上的 Hadoop MapReduce 例子,用于计算 PI 的近似值。其中 -Dmapreduce.job.queuename=root.etl 是指定了作业所在的队列名称为 root.etl,10 和 1000 是作业的参数。具体来说,10 表示计算次数,即将圆周率的计算分为 10 个任务进行,1000 表示每个任务的随机点数,即每个任务会生成 1000 个随机点来计算圆周率的近似值。
相关问题
hadoop jar /opt/apps/hadoop/share/hadoop/mapreduce/hadoop-mapreduce -examples- 3.2.1.jar
### 使用 `hadoop jar` 命令运行 Hadoop 3.2.1 版本的 MapReduce 示例程序
为了成功执行此操作,需确保已按照先前描述的方法完成了Hadoop集群的搭建并验证其正常工作状态[^1]。
#### 准备阶段
确认所有节点上均已正确安装Java环境,并且版本兼容于Hadoop 3.2.1。建议采用Java 8而非更高版本以规避潜在错误。
#### 配置检查
在启动任何作业之前,请先核对 `/usr/local/hadoop/etc/hadoop/` 文件夹下的配置文件是否已经过适当调整来匹配当前网络环境以及硬件条件。特别是以下几个核心配置文件应被仔细审查:
- **core-site.xml**: 定义了基本参数如临时目录位置等。
- **hdfs-site.xml**: 设置NameNode和DataNodes的相关选项。
- **mapred-site.xml**: 明确指定了MapReduce框架的行为准则。
- **yarn-site.xml**: 控制YARN作为资源管理器的功能特性[^4]。
#### 启动服务
利用脚本来激活必要的守护进程(Daemon),这通常涉及到启动Namenode、Datanodes以及其他支持组件。可以通过命令行工具完成这些任务,比如使用`start-dfs.sh` 和 `start-yarn.sh` 来初始化分布式文件系统和服务层架构。
#### 执行WordCount案例研究
一旦上述准备工作就绪,则可以尝试提交简单的MapReduce应用程序——即经典的单词计数例子(word count),具体做法如下所示:
```bash
# 将输入数据上传到HDFS中
hdfs dfs -put /path/to/input/file.txt /input/
# 提交job给YARN ResourceManager处理
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount /input /output
```
这段代码首先把本地磁盘上的文本文件复制到了名为`/input` 的HDFS路径下;接着调用了预打包好的JAR包中的`wordcount` 类来进行实际的数据分析过程并将结果保存至指定输出路径内[^2]。
#### 结果获取
最后一步是从HDFS读取计算后的统计信息返回客户端查看最终成果:
```bash
# 查看输出的结果
hdfs dfs -cat /output/part-r-00000
```
以上就是完整的流程介绍,在这个过程中如果遇到问题可以根据日志记录定位原因加以解决。
hadoop jar /usr/local/src/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount ~/input/data.txt ~/output
好的,Hadoop的命令行工具`hadoop jar`用于执行Hadoop MapReduce任务。在这个例子中:
```sh
hadoop jar /usr/local/src/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount ~/input/data.txt ~/output
```
这个命令的意思是:
1. `/usr/local/src/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar` 是指定的主类路径,即MapReduce示例程序的JAR文件,通常包含wordcount等预打包的MapReduce任务。
2. `wordcount` 是要执行的具体MapReduce任务名,这里是Hadoop自带的一个经典示例,用于计算文本文件中单词的频率。
3. `~/input/data.txt` 是输入数据文件,这是wordcount任务需要读取的数据源,`~` 表示用户的家目录。
4. `~/output` 是输出结果会保存的目录,MapReduce任务完成后,单词及其计数的结果会被写入这里。
运行这个命令,Hadoop会在后台启动一个JobTracker(在Hadoop 2.x之后改名为YARN Resource Manager)来调度和管理MapReduce作业,并从给定的输入文件生成统计结果,存储在指定的输出目录下。
阅读全文
相关推荐















