一、基础环境准备
1、下载安装包(均使用当前最新的稳定版本,截止至2017年05月24日)
-- 下载 jdk-8u131
-- 下载 hadoop-2.7.3
-- 下载 hbase-1.2.5
-- 下载 zookeeper-3.4.10
2、修改hosts文件(使用的三台集群主机默认IP为192.168.0.100、192.168.0.101、192.168.0.102)
192.168.0.100 master
192.168.0.101 slave1
192.168.0.102 slave2
3、安装JDK
-- 解压jdk安装包
-- 拷贝jdk至slave1及slave2中
-- 设置jdk环境变量(master、slave1、slave2均需修改)
JAVA_HOME=/usr/java/jdk1.8.0_131
JRE_HOME=/usr/java/jdk1.8.0_131/jre
export JAVA_HOME=/usr/java/jdk1.8.0_131
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
4、设置免密登陆
slave1
slave2
master
5、关闭防火墙及SELINUX(master、slave1、slave2均需修改)
SELINUX=disabled
二、Hadoop环境搭建
1、解压缩安装包及创建基本目录
2、修改hadoop配置文件
-- 修改 slaves 文件
# vim /usr/hadoop-2.7.3/etc/hadoop/slaves
-- 删除 localhost,添加
slave1
slave2
-- 修改 core-site.xml 文件
# vim /usr/hadoop-2.7.3/etc/hadoop/core-site.xml
-- 在 configuration 节点中添加以下内容
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/hadoop-2.7.3/tmp</value>
</property>
-- 修改 hdfs-site.xml 文件
# vim /usr/hadoop-2.7.3/etc/hadoop/hdfs-site.xml
-- 在 configuration 节点添加以下内容
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/hadoop-2.7.3/hdf/data</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/hadoop-2.7.3/hdf/name</value>
<final>true</final>
</property>
-- 修改 mapred-site.xml 文件
# cp /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml
# vim /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml
-- 在 configuration 节点添加以下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
-- 修改 yarn-site.xml 文件
# vim /usr/hadoop-2.7.3/etc/hadoop/yarn-site.xml
-- 在 configuration 节点添加以下内容
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
3、复制hadoop到slave节点
4、配置 master 和 slave 的 hadoop 环境变量
-- 添加如下内容
export HADOOP_HOME=/usr/hadoop-2.7.3
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_LOG_DIR=/usr/hadoop-2.7.3/logs
export YARN_LOG_DIR=$HADOOP_LOG_DIR
-- 保存后执行
-- 添加如下内容
export HADOOP_PREFIX=/usr/hadoop-2.7.3/
-- 保存后执行
5、格式化 namenode
6、启动 hadoop(仅在master节点执行)
到这一步已经成功完成了hadoop环境的搭建
三、Zookeeper环境搭建
1、解压缩 zookeeper 安装包到master,并建立基本目录
2、修改master配置文件
dataDir=/usr/zookeeper-3.4.10/data
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
3、复制到各个子节点
4、创建myid文件
5、启动zookeeper(master、slave1、slave2均需执行)
到这一步完成了zookeeper环境的搭建
四、HBase环境搭建
1、解压缩hbase安装包
2、修改配置文件
-- 添加如下内容
export JAVA_HOME=/usr/java/jdk1.8.0_131
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=false
3、修改regionservers
master
slave1
slave2
4、修改配置文件
# vim /usr/hbase-1.2.5/conf/hbase-site.xml
-- 在configuration节点下添加如下内容
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/zookeeper-3.4.10/data</value>
</property>
<property>
<name>hbase.master</name>
<value>hdfs://master:60000</value>
</property>
5、复制hbase到slave中
6、启动hbase(仅在master节点上执行即可)
到这一步hbase环境搭建完成
今天先写到这,后续补充hbase控制台操作及通过java api调用hbase执行基本的操作