storm有两种操作模式: 本地模式和远程模式。 本地模式:你可以在你的本地机器上开发测试你的topology, 一切都在你的本地机器上模拟出来; 远端模式:你提交的topology会在一个集群的机器上执行。 本文以Twitter Storm官方Wiki为基础,详细描述如何快速搭建一个Storm集群,其中,项目实践中遇到的问题及经验总结,在相应章节以“注意事项”的形式给出。
1. Strom集群组件 Storm集群中包含两类节点:主控节点(Master Node)和工作节点(Work Node)。其分别对应的角色如下: 1. 主控节点(Master Node)上运行一个被称为Nimbus的后台程序,它负责在Storm集群内分发代码,分配任务给工作机器,并且负责监控集群运行状态。Nimbus的作用类似于Hadoop中JobTracker的角色。 2. 每个工作节点(Work Node)上运行一个被称为Supervisor的后台程序。Supervisor负责监听从Nimbus分配给它执行的任务,据此启动或停止执行任务的工作进程。每一个工作进程执行一个Topology的子集;一个运行中的Topology由分布在不同工作节点上的多个工作进程组成。
Storm集群组件 Nimbus和Supervisor节点之间所有的协调工作是通过Zookeeper集群来实现的。此外,Nimbus和Supervisor进程都是快速失败(fail-fast)和无状态(stateless)的;Storm集群所有的状态要么在Zookeeper集群中,要么存储在本地磁盘上。这意味着你可以用kill -9来杀死Nimbus和Supervisor进程,它们在重启后可以继续工作。这个设计使得Storm集群拥有不可思议的稳定性。
2. Strom集群安装 这一章节将详细描述如何搭建一个Storm集群。下面是接下来需要依次完成的安装步骤: 1. 搭建Zookeeper集群; 2. 安装Storm依赖库; 3. 下载并解压Storm发布版本; 4. 修改storm.yaml配置文件; 5. 启动Storm各个后台进程。
2.1 安装java
安装java:
二、配置
export JAVA_HOME=/usr/java/jdk1.6.0_13
Exception in thread "main" java.lang.UnsupportedClassVersionE
2.1 搭建Zookeeper集群Storm使用Zookeeper协调集群,由于Zookeeper并不用于消息传递,所以Storm给Zookeeper带来的压力相当低。大多数情况下,单个节点的Zookeeper集群足够胜任,不过为了确保故障恢复或者部署大规模Storm集群,可能需要更大规模节点的Zookeeper集群(对于Zookeeper集群的话,官方推荐的最小节点数为3个)。在Zookeeper集群的每台机器上完成以下安装部署步骤: 1. 根据Zookeeper集群的负载情况,合理设置Java堆大小,尽可能避免发生swap,导致Zookeeper性能下降。保守起见,4GB内存的机器可以为Zookeeper分配3GB最大堆空间。 2. 下载后解压安装Zookeeper包,官方下载链接为http://hadoop.apache.org/zookeeper/releases.html。 3. 根据Zookeeper集群节点情况,在conf目录下创建Zookeeper配置文件zoo.cfg:
其中,dataDir指定Zookeeper的数据文件目录;其中server.id=host:port:port,id是为每个Zookeeper节点的编号,保存在dataDir目录下的myid文件中,zoo1~zoo3表示各个Zookeeper节点的hostname,第一个port是用于连接leader的端口,第二个port是用于leader选举的端口。 4. 在dataDir目录下创建myid文件,文件中只包含一行,且内容为该节点对应的server.id中的id编号。 5. 启动Zookeeper服务:
或者
输入jps命令查看进程:
namenode上显示为(本次为单机配置):
19361 QuorumPeerMain
21691 Jps
其中,QuorumPeerMain是zookeeper进程,启动正常。
3、查看状态:zookeeper-3.4.3/bin/zkServer.sh status
JMX enabled by default
Using config: /home/hadooptest/zookeeper-3.4.3/bin/../conf/zoo.cfg
Mode: standalone
6. 通过Zookeeper客户端测试服务是否可用:
或者
7、停止zookeeper进程:zookeeper-3.4.3/bin/zkServer.sh stop 注意事项:
2.2 安装Storm依赖库接下来,需要在Nimbus和Supervisor机器上安装Storm的依赖库,具体如下: 1. ZeroMQ 2.1.7 – 请勿使用2.1.10版本,因为该版本的一些严重bug会导致Storm集群运行时出现奇怪的问题。少数用户在2.1.7版本会遇到”IllegalArgumentException”的异常,此时降为2.1.4版本可修复这一问题。 2. JZMQ 3. Java 6 4. Python 2.6.6 5. unzip 以上依赖库的版本是经过Storm测试的,Storm并不能保证在其他版本的Java或Python库下可运行。 2.2.1 安装ZMQ 2.1.7下载后编译安装ZMQ:
注意事项:
2.2.2 安装JZMQ下载后编译安装JZMQ:
为了保证JZMQ正常工作,可能需要完成以下配置:
注意事项:
2.2.3 安装Java 6(上面已经提到安装了) 2.2.4 安装Python2.6.61. 下载Python2.6.6:
2. 编译安装Python2.6.6:
3. 测试Python2.6.6:
2.2.5 安装unzip1. 如果使用RedHat系列Linux系统,执行以下命令安装unzip:
2. 如果使用Debian系列Linux系统,执行以下命令安装unzip:
2.3 下载并解压Storm发布版本下一步,需要在Nimbus和Supervisor机器上安装Storm发行版本。 1. 下载Storm发行版本,推荐使用Storm0.8.1:
2. 解压到安装目录下:
2.4 修改storm.yaml配置文件Storm发行版本解压目录下有一个conf/storm.yaml文件,用于配置Storm。默认配置在这里可以查看。conf/storm.yaml中的配置选项将覆盖defaults.yaml中的默认配置。以下配置选项是必须在conf/storm.yaml中进行配置的: 1) storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:
如果Zookeeper集群使用的不是默认端口,那么还需要storm.zookeeper.port选项。 2) storm.local.dir: Nimbus和Supervisor进程用于存储少量状态,如jars、confs等的本地磁盘目录,需要提前创建该目录并给以足够的访问权限。然后在storm.yaml中配置该目录,如:
3) java.library.path: Storm使用的本地库(ZMQ和JZMQ)加载路径,默认为”/usr/local/lib:/opt/local/lib:/usr/lib”,一般来说ZMQ和JZMQ默认安装在/usr/local/lib 下,因此不需要配置即可。 4) nimbus.host: Storm集群Nimbus机器地址,各个Supervisor工作节点需要知道哪个机器是Nimbus,以便下载Topologies的jars、confs等文件,如:
5) supervisor.slots.ports: 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量。每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如:
这个脚本文件写的不咋地,所以在配置时一定注意在每一项的开始时要加空格,冒号后也必须要加空格,否则storm就不认识这个配置文件了,切记切记。 2.5 启动Storm各个后台进程最后一步,启动Storm的所有后台进程。和Zookeeper一样,Storm也是快速失败(fail-fast)的系统,这样Storm才能在任意时刻被停止,并且当进程重启后被正确地恢复执行。这也是为什么Storm不在进程内保存状态的原因,即使Nimbus或Supervisors被重启,运行中的Topologies不会受到影响。 以下是启动Storm各个后台进程的方式:
注意事项:
至此,Storm集群已经部署、配置完毕,可以向集群提交拓扑运行了。
3. 安装storm出现的问题
1、 修复/lib/ld-linux.so.2: bad ELF interpreter: No such file or directory问题
2、安装 安装ZMQ 2.1.7
1)configure 前
指定CC路径就好了: 5、启动zookeeper找不到主机: 在这个例子里面 主机名是T214.joy.cc,在 /etc/sysconfig/network定义的主机名,我们需要 使用加入到hosts文件> 192.168.1.214 T214.joy.cc
2013-07-09 13:59:20 supervisor [ERROR] Error on initialization of server mk-supervisor 6、防火墙的问题: hadoop集群环境(linux系统)中最好关闭防火墙,不然会出现很多问题,例如namenode找不到datanode等。 如果不关闭防火墙,客户端使用API操作HDFS以及ZooKeeper,可能就会出现下面常见的两种异常: 1.使用API操作HDFS时会出现异常:java.net.NoRouteToHostException: No route to host 2.使用API操作ZK时会出现异常:org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for xxxx
解决方法: 查看防火墙是否开启: service iptables status 使用root权限登陆后,输入关闭防火墙命令,每个运行hadoop和zk的都要关(两条命令任选一个): /etc/init.d/iptables stop service iptables stop
25489 supervisor
[root@T214 storm-0.8.1]# jps 4. 向集群提交任务 Github里有一个例子叫做storm_starter,我们可以用它来做测试。 按照http://github.com/nathanmarz/storm-starter,执行这个程序需要用lein,我们用eclipse代替lein。打包后进行上传。 使用maven或lein解决storm-starter的包依赖问题,但是由于GFW原因,可能有些依赖包无法获取。故这里采用eclipse自导入包的方法来编译storm-starter. 1)下载twitter4j :twitter4j-2.2.6.zip和storm-starter-master.zip
2) 追加源文件storm-start/src/jvm/storm /path/to/twitter4j/lib/*.jar /path/to/storm/lib/*.jar /path/to/storm/storm-{version}.jar)
-> Finsh 或者可以在建java 项目完成后添加twitter4j和storm的jar文件: 项目名-> 右键->properties->java build path->Libraries -> add External JARs->追加twitter4j和storm的jar文件
3) 追加源文件storm-start/multilang/resources(python 文件word count用)
如果使用的是storm-0.8.1,下面这行代码会报错,下载0.8.2版本即可解决
import backtype.storm.task.IMetricsContext;
如果下面这行报错,说明没有commons-collections.jar包,下载地址:http://commons.apache.org/proper/commons-collections/download_collections.cgi
import org.apache.commons.collections.buffer.CircularFifoBuffer;最下载稳定包:commons-collections-3.2.1-bin,解压后追加commons-collections-3.2.1.jar文件就ok:
项目名-> 右键->properties->java build path->Libraries -> add External JARs->commons-collections-3.2.1.jar
4) JAR export
可能会报错说PrintSampleStream和TwitterSampleSpout这两个类找不到,将这两个类的注释取消掉即可。
Storm-starter本地运行
这里我们测试Storm-starter项目的wordCount,依然用我们打包好的storm-test.jar 。通过阅读源码我们可以知道,WordCountTopology在编写的时候如果在命令后不加参数,则是一个本地模式的WordCount,而如果有一个参数,也就是集群上的计算拓扑(Topology)名,它就会是一个在集群上跑的计算拓扑。。这里我们首先介绍本地运行 # storm jar storm-test.jar storm.starter.WordCountTopology 如果出现下面的文字,说明运行成功了; # storm jar storm-test.jar storm.starter.WordCountTopology13973 [Thread-34] INFO backtype.storm.daemon.executor - Processing received message source: spout:10, stream: default, id: {}, [snow white and the seven dwarfs]13974 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["snow"] 13974 [Thread-26] INFO backtype.storm.daemon.executor - Processing received message source: spout:8, stream: default, id: {}, [an apple a day keeps the doctor away] 13975 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["white"] 13976 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["a"] 13976 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["a"] 13976 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [a, 34] 13977 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["and"] 13977 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["and"] 13977 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [and, 64] 13978 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["day"] 13978 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["day"] 13978 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [day, 34] 13979 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["the"] 13979 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["the"] 13979 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [the, 134] 13917 [Thread-17] INFO backtype.storm.util - Async loop interrupted! 13985 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["seven"] 13986 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["keeps"] 13988 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["the"] 13988 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["the"] 13988 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [the, 135] 13989 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["dwarfs"] 13989 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["dwarfs"] 13989 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [dwarfs, 29] 13990 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["doctor"] 13991 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["away"]
问题: 运行bin/storm jar storm-test.jar storm.starter.WordCountTopology报错:
Exception in thread "main" java.lang.UnsupportedClassVersionE 解决: 1)可能是java的版本和javac不一致。 java -version和javac -version看看版本是否一致 解决的方法在PATH 最前面加上 $JAVA_HOME:$PATH vi /etc/profile
JAVA_HOME=/usr/java/jdk1.6.0_13/
2)解决Unsupported major.minor version 51.0错误 这个因为你的eclipse使用java 1.7JDK编译class文件(导出的storm-test.jar),而安装storm的机器上安装的JDK是1.6 解决:打开eclipse中项目上的属性—java compiler–选择一个合适的版本后重新编译即可。 具体步骤 解决:项目------>右键------>属性------>Java Compiler------>Compiler Compliance Level------>选择你使用的JDK版本-(1.6)----->应用。
向集群提交任务
1. 启动Storm Topology:
其中,allmycode.jar是包含Topology实现代码的jar包,org.me.MyTopology的main方法是Topology的入口,arg1、arg2和arg3为org.me.MyTopology执行时需要传入的参数。 2. 停止Storm Topology:
其中,{toponame}为Topology提交到Storm集群时指定的Topology任务名称。
3.4 参考资料
https://github.com/nathanmarz/storm/ https://github.com/nathanmarz/storm/wiki https://github.com/nathanmarz/storm/wiki/Setting-up-development-environment https://github.com/nathanmarz/storm-starter/
Twitter Storm下载中文镜像 centos的twitter storm安装和storm-start的本地运行
此文通过亲身体验和总结网上资料 (责任编辑:IT) |