Hive 的安装与配置
时间: 2023-11-07 08:06:01 浏览: 480
Hive 是一个基于 Hadoop 的数据仓库工具,可以将结构化数据文件映射为一张数据库表,并提供 SQL 查询功能。下面是 Hive 的安装与配置步骤:
1. 下载 Hive 安装包并解压缩到指定目录。
2. 配置环境变量 HIVE_HOME 和 PATH。
3. 配置 Hive 的配置文件 hive-site.xml,包括以下内容:
- 配置 Hadoop 的路径和版本号。
- 配置 Hive 的元数据存储方式,可以选择 Derby、MySQL 等。
- 配置 Hive 的执行引擎,可以选择 MapReduce、Tez 等。
4. 启动 Hive 服务,可以使用以下命令:
```
$HIVE_HOME/bin/hive --service metastore &
$HIVE_HOME/bin/hive --service hiveserver2 &
```
5. 使用 Hive 命令行或其他客户端工具连接到 Hive 服务,并进行 SQL 查询。
相关问题
hive安装与配置详解
Hive是基于Hadoop的数据仓库工具,它可以将结构化数据映射为一张数据库表,并提供类似SQL语言的查询功能,使得数据分析师和开发人员可以使用SQL语言来查询和分析大规模的数据。下面是Hive的安装与配置详解:
1. 安装Java
Hive需要Java环境来运行,所以需要先安装Java。可以通过以下命令来安装Java:
```
sudo apt-get update
sudo apt-get install default-jdk
```
2. 安装Hadoop
Hive是基于Hadoop的,所以需要先安装Hadoop。可以参考Hadoop的安装与配置教程。
3. 下载Hive
可以从Hive的官方网站下载最新的版本,也可以从Apache的镜像站点下载。下载完成后,解压缩到指定目录,比如/opt/hive。
4. 配置Hive
配置文件位于Hive的conf目录下,修改hive-env.sh文件,设置JAVA_HOME和HADOOP_HOME变量的值,比如:
```
export JAVA_HOME=/usr/lib/jvm/default-java
export HADOOP_HOME=/opt/hadoop
```
另外,还需要修改hive-site.xml文件,将以下属性设置为对应的值:
```
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby:/opt/hive/metastore_db;create=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.apache.derby.jdbc.EmbeddedDriver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
<description>password to use against metastore database</description>
</property>
```
5. 启动Hive
启动Hive之前,需要先启动Hadoop。启动Hadoop后,可以通过以下命令启动Hive:
```
cd /opt/hive/bin
./hive
```
启动成功后,可以在Hive的Shell中输入SQL语句,比如:
```
hive> show tables;
```
以上就是Hive的安装与配置详解。
centos7Hive安装与配置
在CentOS 7上安装Hive通常需要几个步骤,因为Hive是基于Apache Hadoop的数据仓库工具,所以首先你需要安装Hadoop。以下是简要的安装流程:
**1. 安装Hadoop**
- 更新系统包列表:`sudo yum update`
- 安装基础依赖:`sudo yum install -y java-1.8.0-openjdk-devel`
- 添加Hadoop官方仓库:`echo 'export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64' >> /etc/profile`
- 安装Hadoop(例如,安装Hadoop 2.7版本):`sudo yum install hadoop2-client hadoop2-namenode hadoop2-secondarynamenode hadoop2-datanode hadoop2-resource_manager hadoop2-jobhistory-server`
**2. 启动Hadoop服务**
- 配置环境变量:`source /etc/hadoop/conf/hadoop-env.sh`
- 启动所有Hadoop服务:`sudo start all`
**3. 安装Hive**
- 添加Hive官方仓库:`sudo tee -a /etc/yum.repos.d/cloudera.repo << EOF
[cloudera]
name=Cloudera Repo
baseurl=https://archive.cloudera.com/cm5/redhat/7/x86_64/
gpgkey=https://archive.cloudera.com/cm5/redhat/7/x86_64/RPM-GPG-KEY-cloudera
enabled=1
gpgcheck=1
EOF`
- 安装Hive:`sudo yum install hive-server2 hive-exec`
**4. 配置Hive**
- 配置Hive的元存储(默认是HDFS):编辑 `/etc/hive/conf/hive-site.xml`,确保`javax.jdo.option.ConnectionURL`指向Hadoop的HDFS地址。
- 启动Hive服务:`sudo systemctl start hive-server2`
- 验证安装:通过SSH连接到Hadoop集群并尝试运行简单的Hive命令,如`hive`。
**5. (可选)设置Hive Metastore(HMS)安全**
如果有权限管理,还需要配置Hive Metastore的用户和权限,以及Kerberos或LDAP等安全认证。
**相关问题--:**
1. Hive依赖哪些数据库或文件系统?
2. 如何查看Hive的当前状态?
3. 如何在Hive中创建一个新的表?
阅读全文