hadoop(1.2) 分布式部署
时间:2014-12-02 15:36 来源:linux.it.net.cn 作者:IT
1. 部署环境
系统: CentOS 6.3
需要安装jdk.
JDK的RPM下载地址: http://www.oracle.com/technetwor ... nloads-1880260.html
hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html
关闭iptables和selinux
2. SSH配置
3. 部署hadoop
官网: http://hadoop.apache.org/
下载: http://mirror.bit.edu.cn/apache/hadoop/common/
修改配置
1. conf/hadoop-env.sh
这是一个脚本文件,主要是用来初始化hadoop环境的.
修改JAVA_HOME变量, 告诉在那里可以找到java , 这里安装的是oracle jre的rpm,如下配置..
2. conf/core-site.xml
3. conf/hdfs-site.xml
4. conf/mapred-site.xml
5. conf/masters
6. conf/slaves
7. 修改hosts
8. 将hadoop目录scp到其他的设备上
所有的hadoop的内容都是一样的,直接scp -r过去就可以了
9. 格式化名称节点
4. 启动hadoop
如果第一次启动不成功,可以运行jps命令查看进程
如果安装的是oracle jdk 的rpm
/usr/java/jdk1.7.0_67/bin/jps 如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..
启动后的日志在logs目录中
jobtracker namenode secondarynamenode 日志默认都在master上...
tasktracker datanode 在所有slave的logs中.
5. 启动后的检查
通过jps命令查看, java的进程统计列表
总结:
1. 配置hosts文件
2. 建立hadoop运行账号
3. 配置ssh免密码登录
4. 下载并解压hadoop安装包
5. 配置namenode, 修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各节点复制hadoop
9. 格式化namenode
10. 启动hadoop
11. 用jps检验各后台进程是否成功启动
(责任编辑:IT)
1. 部署环境
系统: CentOS 6.3
需要安装jdk.
JDK的RPM下载地址: http://www.oracle.com/technetwor ... nloads-1880260.html
hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html
关闭iptables和selinux
2. SSH配置 3. 部署hadoop
官网: http://hadoop.apache.org/
下载: http://mirror.bit.edu.cn/apache/hadoop/common/
修改配置 1. conf/hadoop-env.sh
这是一个脚本文件,主要是用来初始化hadoop环境的.
修改JAVA_HOME变量, 告诉在那里可以找到java , 这里安装的是oracle jre的rpm,如下配置..
2. conf/core-site.xml 3. conf/hdfs-site.xml 4. conf/mapred-site.xml 5. conf/masters 6. conf/slaves 7. 修改hosts 8. 将hadoop目录scp到其他的设备上
所有的hadoop的内容都是一样的,直接scp -r过去就可以了
9. 格式化名称节点 4. 启动hadoop
如果第一次启动不成功,可以运行jps命令查看进程
如果安装的是oracle jdk 的rpm
/usr/java/jdk1.7.0_67/bin/jps 如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..
启动后的日志在logs目录中
jobtracker namenode secondarynamenode 日志默认都在master上...
tasktracker datanode 在所有slave的logs中.
5. 启动后的检查
通过jps命令查看, java的进程统计列表
总结:
1. 配置hosts文件
2. 建立hadoop运行账号
3. 配置ssh免密码登录
4. 下载并解压hadoop安装包
5. 配置namenode, 修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各节点复制hadoop
9. 格式化namenode
10. 启动hadoop
11. 用jps检验各后台进程是否成功启动
|