hadoop2.6.5的端口
时间: 2024-04-27 16:24:40 浏览: 10
Hadoop 2.6.5 默认的端口如下:
- NameNode HTTP 服务端口:50070
- Job Tracker HTTP 服务端口:8088
- Task Tracker HTTP 服务端口:50060
- DataNode HTTP 服务端口:50075
- Secondary NameNode HTTP 服务端口:50090
当然,这些端口都可以在配置文件中进行修改。
相关问题
spark-assembly-1.5.0-hadoop2.6.5jar下载方式
由于版权问题和下载源可能存在不稳定性,建议在官方网站下载:
1. 打开Spark官网:http://spark.apache.org/downloads.html
2. 在页面下方的Latest Stable Release中选择Spark版本,比如选择2.4.5
3. 在Download(spark-2.4.5-bin-hadoop2.7.tgz)右边找到“Internals”栏目,点击“Download“.此时你就可以在浏览器的下载目录中找到下载好的文件。解压后在Spark安装目录下找到lib文件夹,里面包含了所有的jar包,其中就包括了spark-assembly-xxx.jar。
hadoop 常用端口
Hadoop集群的各部分一般都会使用到多个端口,用于不同的目的。其中一些端口用于daemon之间的交互,一些用于RPC访问和HTTP访问。以下是Hadoop常用端口列表:
1. HDFS(Hadoop分布式文件系统):
- NameNode(名称节点): 默认端口为 50070,Web UI访问地址为 http://<namenode>:50070
- DataNode(数据节点): 默认端口为 50075,Web UI访问地址为 http://<datanode>:50075
2. YARN(Yet Another Resource Negotiator):
- ResourceManager(资源管理器): 默认端口为 8088,Web UI访问地址为 http://<resourcemanager>:8088
- NodeManager(节点管理器): 默认端口为 8042,Web UI访问地址为 http://<nodemanager>:8042
3. HBase:
- Master(主节点): 默认端口为 16010,Web UI访问地址为 http://<master>:16010
- RegionServer(区域服务器): 默认端口为 16030,Web UI访问地址为 http://<regionserver>:16030
4. Hive:
- HiveServer2(Hive服务器): 默认端口为 10000
5. ZooKeeper:
- 客户端端口: 默认端口为 2181
请注意,这些端口是默认端口,实际使用时可能会有所变化,具体取决于配置文件中的设置。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [hadoop2.x常用端口及定义方法](https://blog.csdn.net/Dustin_CDS/article/details/50647055)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]