> Linux集群 >

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置(5)

安装结束

 

四、Hadoop启动与测试

1、格式化一个新的分布式文件系统


  1. cd hadoop-1.2.1   
  2. bin/hadoop namenode -format #格式化文件系统  

成功的情况下输入一下(我的hadoop已经使用,不想重新格式化选择了No)

2、启动所有节点


  1. bin/start-all.sh 

3、查看集群的状态:

 


  1. hadoop dfsadmin -report 

4、Hadoop测试

浏览NameNode和JobTracker的网络接口,它们的地址默认为:

NameNode - http://node1:50070/

JobTracker - http://node1:50030/

要想检查守护进程是否正在运行,可以使用 jps 命令(这是用于 JVM 进程的ps 实用程序)。这个命令列出 5 个守护进程及其进程标识符。

将输入文件拷贝到分布式文件系统:


  1. bin/hadoop fs -mkdir input #创建input目录   
  2.    
  3. bin/hadoop fs -put conf/core-site.xml input #拷贝文件到input目录   
  4.    
  5. bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z]' #使用Hadoop运行示例  

到此为止,hadoop已经配置完成,当然在配置的过程中会遇到各种错误,主要都是权限问题和网络ip配置问题,请注意。

五、Hadoop一些常用的操作命令

1、hdfs常用操作:

hadoopdfs -ls 列出HDFS下的文件

hadoop dfs -ls in 列出HDFS下某个文档中的文件

hadoop dfs -put test1.txt test 上传文件到指定目录并且重新命名,只有所有的DataNode都接收完数据才算成功

hadoop dfs -get in getin 从HDFS获取文件并且重新命名为getin,同put一样可操作文件也可操作目录

hadoop dfs -rmr out 删除指定文件从HDFS上

hadoop dfs -cat in/* 查看HDFS上in目录的内容

hadoop dfsadmin -report 查看HDFS的基本统计信息,结果如下

hadoop dfsadmin -safemode leave 退出安全模式

hadoop dfsadmin -safemode enter 进入安全模式

2、负载均衡

start-balancer.sh,可以使DataNode节点上选择策略重新平衡DataNode上的数据块的分布。

(责任编辑:IT)