<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoopinstall/tmp</value>
(注意,请先在 hadoopinstall 目录下建立 tmp 文件夹)
<description>A base for other temporary directories.</description>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.90.91:9000</value>
</property>
</configuration>
(3)配置 hdfs-site.xml 文件
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
(replication 是数据副本数量,默认为 3,datanode 少于 3 台就会报错)
</property>
<configuration>
(4)配置 mapred-site.xml 文件
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.90.91:9001</value>
</property>
</configuration>
(5)配置 masters 文件,加入 namenode 的 ip 地址
192.168.90.91
(6)配置 slaves 文件, 加入所有 datanode 的 ip 地址
192.168.90.94
192.168.90.205
将 namenode 上 配 置 好 的 hadoop 所 在 文 件 夹 hadoopinstall 复 制 到
datanode 的/home/hadoop/目录下(实际上 masters,slavers 文件时不必要的, 复制了也
没问题)。
在 datanode 上修改/etc/profile 文件 (配置 java 环境变量的文件 ),将以下语
句添加到 末尾,并使其有效(source /etc/profile):
# set hadoop path
export HADOOP_HOME=/home/zkl/hadoopinstall/hadoop-0.20.1
export PATH=$HADOOP_HOME/bin:$PATH