scp slaves root@ slave98-1:/usr/local/hadoop/etc/hadoop/ slaves: No such file or directory root@: No such file or directory
时间: 2023-11-21 22:12:54 浏览: 91
这个错误信息显示无法找到本地的 `slaves` 文件,你可以通过以下命令检查一下当前目录下是否存在 `slaves` 文件:
```
ls
```
如果 `slaves` 文件确实不存在,你需要先创建它,可以通过以下命令创建:
```
touch slaves
```
然后再执行 `scp` 命令将 `slaves` 文件复制到远程服务器上。另外,你在执行 `scp` 命令时,应该将本地文件和远程服务器地址用空格隔开,如下所示:
```
scp slaves root@slave98-1:/usr/local/hadoop/etc/hadoop/
```
这样就可以将本地的 `slaves` 文件复制到远程服务器 `slave98-1` 的 `/usr/local/hadoop/etc/hadoop/` 目录下了。
相关问题
1. 在虚拟机中安装docker2. 使用docker下载 ubuntu 16.04 版本的镜像文件并创建容器3. 在容器中安装并配置Hadoop4. 将容器导出为镜像,利用导出的镜像创建5个容器,主机名分别为 h01、h02、h03、h04、h05。其中 h01 为 master,其他的为 slave。5. 启动Hadoop集群,熟悉Hdfs上传,下载,查看文件等操作6. 运行内置WordCount例子
好的,你的问题是如何在Docker容器中安装并配置Hadoop以及启动Hadoop集群呢?
以下是在Docker容器中安装并配置Hadoop以及启动Hadoop集群的步骤:
1. 首先,安装Docker并启动Docker服务。
2. 使用Docker pull命令下载Ubuntu 16.04版本的镜像文件。
```
docker pull ubuntu:16.04
```
3. 创建一个新的容器并运行它。
```
docker run -it --name hadoop ubuntu:16.04 /bin/bash
```
4. 在容器中安装Java和SSH。
```
apt-get update
apt-get install -y openjdk-8-jdk
apt-get install -y ssh
```
5. 创建一个新用户,并为其生成ssh公钥和私钥。
```
useradd -m hduser
su - hduser
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
```
6. 下载并解压Hadoop安装包,并将其移动到/usr/local目录下。
```
wget https://archive.apache.org/dist/hadoop/core/hadoop-2.7.7/hadoop-2.7.7.tar.gz
tar -xzvf hadoop-2.7.7.tar.gz
mv hadoop-2.7.7 /usr/local/hadoop
```
7. 配置Hadoop环境变量。
```
echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh
echo "export HADOOP_HOME=/usr/local/hadoop" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh
echo "export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh
```
8. 配置Hadoop的核心配置文件。
```
cd /usr/local/hadoop/etc/hadoop
cp mapred-site.xml.template mapred-site.xml
cp yarn-site.xml.template yarn-site.xml
cp core-site.xml core-site.xml.bak
cp hdfs-site.xml hdfs-site.xml.bak
```
修改core-site.xml:
```
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://h01:9000</value>
</property>
</configuration>
```
修改hdfs-site.xml:
```
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
```
修改yarn-site.xml:
```
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
```
9. 配置slaves文件,并将其复制到所有的节点上。
```
echo "h01" > /usr/local/hadoop/etc/hadoop/masters
echo "h02" > /usr/local/hadoop/etc/hadoop/slaves
echo "h03" >> /usr/local/hadoop/etc/hadoop/slaves
echo "h04" >> /usr/local/hadoop/etc/hadoop/slaves
echo "h05" >> /usr/local/hadoop/etc/hadoop/slaves
```
复制到所有的节点上:
```
scp /usr/local/hadoop/etc/hadoop/slaves hduser@h02:/usr/local/hadoop/etc/hadoop/
scp /usr/local/hadoop/etc/hadoop/slaves hduser@h03:/usr/local/hadoop/etc/hadoop/
scp /usr/local/hadoop/etc/hadoop/slaves hduser@h04:/usr/local/hadoop/etc/hadoop/
scp /usr/local/hadoop/etc/hadoop/slaves hduser@h05:/usr/local/hadoop/etc/hadoop/
```
10. 启动Hadoop集群。
```
cd /usr/local/hadoop/sbin
./start-dfs.sh
./start-yarn.sh
```
11. 熟悉HDFS上传,下载,查看文件等操作。
上传文件到HDFS:
```
hdfs dfs -mkdir /input
hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml /input
```
下载文件到本地:
```
hdfs dfs -get /input/*.xml /usr/local/hadoop/etc/hadoop/
```
查看文件:
```
hdfs dfs -ls /input
```
12. 运行内置WordCount例子。
```
hdfs dfs -mkdir /output
hdfs dfs -put /usr/local/hadoop/LICENSE.txt /input
hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /input /output
hdfs dfs -cat /output/part-r-00000
```
以上是在Docker容器中安装并配置Hadoop以及启动Hadoop集群的步骤,希望能帮到你!
阅读全文