Hadoop-2.2.0在Linux上的安装与配置教程

需积分: 9 1 下载量 162 浏览量 更新于2024-09-11 收藏 196KB DOCX 举报
"本文档详细介绍了在Linux环境下安装和配置Hadoop 2.2.0的步骤,包括Java JDK 1.7的安装、Hadoop的解压与配置,以及各个核心配置文件的修改和启动流程。" 在安装Hadoop之前,首先需要安装Java Development Kit (JDK) 的1.7版本,因为Hadoop运行需要Java环境。下载JDK 1.7后将其解压至/home/software目录下,然后编辑/etc/profile文件,添加JDK的路径,以便系统能够识别Java。通过执行`java -version`命令检查Java是否正确安装。 接下来是Hadoop的安装。在Linux系统的根目录下创建一个名为`cloud`的目录,并将下载的Hadoop 2.2.0压缩包解压到这个目录中。之后,进入解压后的配置文件目录`/cloud/hadoop/etc/hadoop`进行后续的配置工作。 配置Hadoop的关键在于修改相关配置文件。首先,在`hadoop-env.sh`文件中设置JAVA_HOME环境变量,指向JDK的安装路径。这确保Hadoop使用正确的Java版本。然后,需要编辑`core-site.xml`,配置Hadoop的基本属性,如命名节点地址等。在`hdfs-site.xml`中,可以设定HDFS的相关参数,如副本数量和数据节点的位置。 `mapred-site.xml`通常是以模板形式存在的,需要将其重命名为`mapred-site.xml`,并设置MapReduce框架使用YARN,这一步对于Hadoop 2.x版本尤为重要,因为它将MapReduce任务调度交给了YARN管理。最后,修改`yarn-site.xml`,设置YARN的相关配置,如资源管理器地址等。 配置完成后,需将Hadoop的路径添加到系统环境变量中,通过编辑`/etc/profile`,添加JAVA_HOME、HADOOP_HOME,并更新环境变量。确保PATH变量包含了Java和Hadoop的可执行文件路径。 启动Hadoop涉及两个主要部分:HDFS(Hadoop Distributed File System)和YARN(Yet Another Resource Negotiator)。首先执行HDFS的格式化操作,这一步会初始化NameNode的数据结构。有两种命令可以选择,即`hadoop namenode -format`(较旧版本)或`hdfs namenode -format`。然后,依次启动HDFS和YARN,分别使用`sbin/start-dfs.sh`和`sbin/start-yarn.sh`脚本。 以上就是Hadoop 2.2.0在Linux环境下的完整安装和配置过程,确保了Hadoop集群的基本运行。在实际部署中,还需要考虑网络设置、安全配置以及其他服务(如HBase、Spark等)的集成,但这里主要涵盖了最基础的安装步骤。

at org.apache.hadoop.ipc.Client.call(Client.java:1476) at org.apache.hadoop.ipc.Client.call(Client.java:1413) at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229) at com.sun.proxy.$Proxy29.mkdirs(Unknown Source) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.mkdirs(ClientNamenodeProtocolTranslatorPB.java:563) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:191) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102) at com.sun.proxy.$Proxy30.mkdirs(Unknown Source) at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:3014) at org.apache.hadoop.hdfs.DFSClient.mkdirs(DFSClient.java:2984) at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1047) at org.apache.hadoop.hdfs.DistributedFileSystem$21.doCall(DistributedFileSystem.java:1043) at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternal(DistributedFileSystem.java:1043) at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirs(DistributedFileSystem.java:1036) at org.apache.hadoop.hive.ql.session.SessionState.createPath(SessionState.java:751) at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:674) at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:586)

2023-07-16 上传