hdfs-site.xml 修改保存后 重启又恢复了
时间: 2024-02-11 07:04:59 浏览: 28
如果你修改了HDFS的配置文件hdfs-site.xml,然后重启了HDFS,但修改并没有生效,那么可能有以下几个原因:
1. 检查你修改的是正确的配置文件,有时候可能会误修改其他的配置文件,比如core-site.xml或mapred-site.xml。
2. 检查你修改的配置项是否正确,有时候可能会将配置项名字写错或者修改了不应该修改的配置项。
3. 检查你是否在重启HDFS的时候使用了正确的命令,重启HDFS应该使用以下命令:
```
$HADOOP_HOME/sbin/stop-dfs.sh
$HADOOP_HOME/sbin/start-dfs.sh
```
如果你使用了其他的命令,比如restart-dfs.sh,可能会导致修改不生效。
另外,如果你是在Hadoop集群中修改配置文件,需要确保你修改的配置文件已经同步到所有节点上,否则修改也不会生效。
相关问题
hdfs的hdfs-site.xml配置文件
HDFS(Hadoop分布式文件系统)的配置文件hdfs-site.xml用于指定HDFS的相关配置参数。下面是一个hdfs-site.xml配置文件的示例:
```xml
<configuration>
<!-- 指定NameNode的相关配置 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>/path/to/name/dir</value>
<description>存储NameNode的元数据的目录</description>
</property>
<!-- 指定DataNode的相关配置 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>/path/to/data/dir</value>
<description>存储DataNode的数据块的目录</description>
</property>
<!-- 指定副本数量 -->
<property>
<name>dfs.replication</name>
<value>3</value>
<description>每个数据块的副本数量</description>
</property>
<!-- 指定块大小 -->
<property>
<name>dfs.blocksize</name>
<value>128m</value>
<description>每个数据块的大小</description>
</property>
<!-- 指定NameNode的通信地址 -->
<property>
<name>dfs.namenode.rpc-address</name>
<value>localhost:9000</value>
<description>NameNode的RPC服务地址</description>
</property>
<!-- 其他配置参数 -->
...
</configuration>
```
在实际使用中,你可以根据需要修改hdfs-site.xml文件中的配置参数来满足你的需求。注意,修改配置文件后需要重启HDFS服务使配置生效。
请扮演一个命令终端, 修改Hadoop配置文件,路径在hadoop安装目录下的/etc/hadoop (1)修改core-site.xml配置文件,将fs.defaultFS属性值修改为hdfs://名称节点主机名:9000,并添加名称节点格式化时临时存放数据目录。 (2)修改hdfs-site.xml配置文件,添加dfs.namenode.secondary.http-address属性值修改为主机名:50090,主机名为前期规划为第二名称节点的主机名 (3)修改hdfs-site.xml配置文件,添加
好的,以下是修改Hadoop配置文件的指令:
1. 修改core-site.xml配置文件:
```
$ cd /etc/hadoop/
$ sudo nano core-site.xml
```
在文件中找到以下属性:
```
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
```
将value值修改为:
```
<property>
<name>fs.defaultFS</name>
<value>hdfs://名称节点主机名:9000</value>
</property>
```
在文件中添加以下属性:
```
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop-${user.name}</value>
</property>
```
保存并退出。
2. 修改hdfs-site.xml配置文件:
```
$ sudo nano hdfs-site.xml
```
在文件中找到以下属性:
```
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>0.0.0.0:50090</value>
</property>
```
将value值修改为:
```
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>主机名:50090</value>
</property>
```
保存并退出。
3. 继续修改hdfs-site.xml配置文件:
```
$ sudo nano hdfs-site.xml
```
在文件中添加以下属性:
```
<property>
<name>dfs.namenode.name.dir</name>
<value>/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/hadoop/hdfs/datanode</value>
</property>
```
保存并退出。
修改完成后,需要重启Hadoop服务以使配置文件生效。