同一个网络 不用电脑的虚拟机可以相互ssh,怎么做映射
时间: 2024-05-21 09:13:15 浏览: 129
这个问题可以通过使用端口转发实现。您可以使用如下命令进行端口转发: ssh -N -L <本地端口号>:<目标主机IP>:<目标主机端口号> <用户名>@<目标主机IP>。其中,<本地端口号>为您希望映射到目标主机的本地端口号。<目标主机IP>为另一个主机的IP地址,<目标主机端口号>为该主机上您希望访问的端口号。此命令将会经由SSH协议连接到目标主机,并将您本地机器上的<本地端口号>映射到目标主机的<目标主机端口号>。
相关问题
分别在虚拟机Hadoop1、Hadoop2和Hadoop3执行vi /etc/hosts"命令编辑映射文件hosts,在配置文件中添加如下内容。 192.168.121.160 hadoop1192.
在Hadoop的不同版本中,如Hadoop 1.x、2.x 和 3.x,操作系统的底层结构可能会有所不同,但编辑`/etc/hosts`这个操作基本是一致的,因为这是Linux系统级别的配置文件。以下是假设在这些环境下如何编辑:
1. **Hadoop 1.x (MapReduce)**:
Hadoop 1.x主要依赖于经典的Linux shell命令行工具。首先,你需要打开终端,然后通过SSH登录到相应的节点(hadoop1)。假设你已经设置了SSH无密码登录,你可以这样做:
```
ssh hadoop1
cd /
vi /etc/hosts
```
然后,在打开的vi编辑器中添加新的条目。
2. **Hadoop 2.x & Hadoop 3.x (YARN/MAPREDUCE2)**:
同样地,先通过SSH登录,然后编辑文件:
```
ssh hadoop1
sudo -i
vi /etc/hosts
```
使用`sudo`是因为编辑`/etc/hosts`通常需要管理员权限。
3. **Hadoop 3.x (Hive/HDFS3等) with Hadoop Distributed File System (HDFS)**:
如果是在Hadoop 3.x的环境中,尤其是涉及到HDFS,你可能需要通过HDFS客户端或者Web UI来修改,因为直接编辑主机文件不是标准做法。可以使用`hdfs dfs -put`命令将文件上传到HDFS,然后在HDFS客户端编辑,再下载覆盖本地文件。
请注意,以上步骤可能会因实际环境配置而异,比如防火墙设置、权限控制以及集群管理工具的差异。完成编辑后,记得保存并退出编辑器。对于每个步骤,都建议确认文件是否已成功更新,可以用`cat /etc/hosts`来检查。
阅读全文