> Linux集群 > Hadoop >

Hive 安装

1 、下载Hive-0.11.0

http://apache.cs.utah.edu/hive/hive-0.11.0/

 

2、解压安装

        Hive原则上可以安装在集群上的任何一台机器上面,但是考虑到 master节点的负荷比较大,我们选择一台机器性能较好的datanode来安装hive。在我们的集群中选择cloud003来安装hive。另外,在我们的安装中采用MySQL来存放hive的meta数据。

2.1 解压

        将hive-0.11.0.tar.gz解压到/home/hduser路径下

        tar –zxvf hive-0.11.0.tar.gz

        产生hive 的安装目录:/home/hduser/hive-0.11.0

        如果所有配置都采用默认情况,此时hive已经可用。这里有一个问题需要注意的是,Hadoop的安装路径要添加到/etc/profile,否则 hive运行时将找不到hadoop。(此时可跳过第2.2步骤,测试hive是否正常运行)

2.2配置 mySQL存放metadata (可选)

1) 这里默认mySQL已经安装(root/mysql)。由于 mysql的默认安装只允许本地登录,所以需要修改配置文件将地址绑定注释掉:

2)重启mysql:  sudoservice mysql restart

3)登录msql,创建database: hive

4)修改hive配置文件hive-site.xml

        默认这个文件是不存在的,进入hive安装路径(/home/hduser/hive-0.11.0/)在conf目录下,拷贝hive-default.xml.template得到hive-site.xml文件

修改以下属性:

<configuration>

    <property>

        <name>javax.jdo.option.ConnectionURL</name>

        <value>jdbc:mysql://16.187.94.183:3306/hive?characterEncoding=UTF-8</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionDriverName</name>

        <value>com.mysql.jdbc.Driver</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionUserName</name>

        <value>root</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionPassword</name>

        <value>mysql</value>

    </property>

</configuration>

 

5)把mySQL的JDBC驱动包复制到Hive的lib目录下

这里下载的版本是:mysql-connector-Java-5.0.8-bin.jar

3、启动运行

3.1 配置环境变量

        vim /etc/profile

 添加hive环境变量:

export HIVE_HOME=/home/hduser/hive-0.11.0

export PATH=$HIVE_HOME/bin:$PATH

source /etc/profile

3.2 启动hive

在终端直接输入:hive即可,如下图:

3.3 验证hive

1)在hive上建立数据表

Hive>create table test(id int,name string) row formatdelimited fields terminated by ’\t’;

2)登录mySQL查看meta信息

use hive;

show tables;(如下图)

select* from TBLS;

至此hive配置安装成功!

 


(责任编辑:IT)