storm_初识

<h3>简介:</h3>
Storm是一个分布式的,可靠的,容错的数据流处理系统。它会把工作任务委托给不同类型的组件,每个组件负责处理一项简单特定的任务。Storm集群的输入流由一个被称作spout的组件管理,spout把数据传递给bolt,bolt要么把数据保存到某种存储器,要么把数据传递给其它的bolt。你可以想象一下,一个Storm集群就是在一连串的bolt之间转换spout传过来的数据。
<h4>Storm的特性</h4>
在所有这些设计思想与决策中,有一些非常棒的特性成就了独一无二的Storm。
<li><b>简化编程</b></li> 如果你曾试着从零开始实现实时处理,你应该明白这是一件多么痛苦的事情。使用Storm,复杂性被大大降低了。使用一门基于JVM的语言开发会更容易,但是你可以借助一个小的中间件,在Storm上使用任何语言开发。有现成的中间件可供选择,当然也可以自己开发中间件。
<li><b>容错</b></li> Storm集群会关注工作节点状态,如果宕机了必要的时候会重新分配任务。
可扩展 所有你需要为扩展集群所做的工作就是增加机器。Storm会在新机器就绪时向它们分配任务。
<li><b>可靠</b></li> 所有消息都可保证至少处理一次。如果出错了,消息可能处理不只一次,不过你永远不会丢失消息。
<li><b>快速</b></li> 速度是驱动Storm设计的一个关键因素
<li><b>事务性</b></li> You can get exactly once messaging semantics for pretty much any computation.你可以为几乎任何计算得到恰好一次消息语义。
<h4>storm分布式计算结构</h4>
Storm 分布式计算结构称为topology(拓扑),由stream(数据流)、spout(数据流的生成者)、bolt(运算)组成,如下图。
<pre>


Paste_Image.png

</pre>

<h3>storm本地demo搭建:</h3>
作为一个程序员来说,最大的毛病就是一言不合就上代码,好吧。我们就枚举一个官方用的比较多的例子吧,spot来喷发字符串,bolt1来以空格来分隔字符串继续向后续的计算模块bolt2分发,bolt2来通过来收集相同字符出现次数继续向计算模块bolt3分发,然后bolt3收集blot2的结果最终打印结果手动结束。如下图:

Paste_Image.png

新建pom项目,添加pom依赖:
<pre>
<dependencies>
<dependency>
<groupId>org.apache.storm</groupId>
<artifactId>storm-core</artifactId>
<version>0.9.5</version>
</dependency>
</dependencies>
</pre>
SentenceSpout--单词生成类:
<pre>
public class SentenceSpout extends BaseRichSpout {
//用来发射数据的工具类
private SpoutOutputCollector collector;
private String[] sentences = {"my dog has fleas","i like cold beverages","the dog ate my homework","don't have a cow man","i don't think i like fleas"};
private int index = 0;
//每调用一次就可以向storm集群中发射一条数据(一个tuple元组),该方法会被不停的调用
public void nextTuple() {
this.collector.emit(new Values(sentences[index]));
index ++;
if(index >= sentences.length){
index = 0;
}
try {
Thread.sleep(1);
} catch (InterruptedException e) {
}
}
//初始化collector
@SuppressWarnings("rawtypes")
public void open(Map config, TopologyContext context, SpoutOutputCollector collector) {
this.collector = collector;
}
// 定义字段id,该id在简单模式下没有用处,但在按照字段分组的模式下有很大的用处。 该declarer变量有很大作用,我们还可以调用declarer.declareStream();来定义stramId,该id可以用来定义更加复杂的流拓扑结构
public void declareOutputFields(OutputFieldsDeclarer declarer) {
declarer.declare(new Fields("sentence"));
}
}
</pre>
SplitSentenceBolt--单词分隔类
<pre>
@SuppressWarnings("serial")
public class SplitSentenceBolt extends BaseRichBolt {
//用来定义继续向后续的计算模块发射数据的工具类
private OutputCollector collector;
public void execute(Tuple tuple) {
String sentence = tuple.getStringByField("sentence");
String[] words = sentence.split(" ");
for(String word : words){
this.collector.emit(new Values(word));
}
}
//初始化
@SuppressWarnings("rawtypes")
public void prepare(Map config, TopologyContext context, OutputCollector collector) {
this.collector = collector;
}
public void declareOutputFields(OutputFieldsDeclarer declarer) {
declarer.declare(new Fields("word"));
}
}
</pre>
WordCountBolt--相同的单词统计
<pre>
public class WordCountBolt extends BaseRichBolt {
private OutputCollector collector;
private HashMap<String, Long> counts = null;
public void execute(Tuple tuple) {
String word = tuple.getStringByField("word");
Long count = this.counts.get(word);
if (count == null) {
count = 1L;
}
count++;
this.counts.put(word, count);
this.collector.emit(new Values(word, count));
}
@SuppressWarnings("rawtypes")
public void prepare(Map config, TopologyContext context, OutputCollector collector) {
this.collector = collector;
counts = new HashMap<>();
}
public void declareOutputFields(OutputFieldsDeclarer declarer) {
declarer.declare(new Fields("word","count"));
}
}
</pre>
BaseRichBolt--统计单词结果
<pre>
@SuppressWarnings("serial")
public class ReportBolt extends BaseRichBolt {
private HashMap<String, Long> counts = null;
@Override
public void execute(Tuple tuple) {
String word = tuple.getStringByField("word");
Long count = tuple.getLongByField("count");
this.counts.put(word, count);
}
@SuppressWarnings("rawtypes")
@Override
public void prepare(Map config, TopologyContext context, OutputCollector collector) {
counts = new HashMap<>();
}
@Override
public void declareOutputFields(OutputFieldsDeclarer arg0) {
}
public void cleanup(){
System.err.println("---final counts---");
List<String> keys = new ArrayList<>();
keys.addAll(counts.keySet());
Collections.sort(keys);
for(String key : keys){
System.err.println(key + " : " + this.counts.get(key));
}
System.err.println("---end---");
}
}
</pre>
最后的最后我要上main方法啦:
<pre>
public class WordCountTopology {
private static final String SPOUT = "spout";
private static final String SPLIT_BOLT = "splitBolt";
private static final String COUNT_BOLT = "countBolt";
private static final String REPORT_BOLT = "reportBolt";
private static final String TOPOLOGY_NAME = "wordCountTopology";
public static void main(String[] args) throws InterruptedException {
//数据发射器
SentenceSpout spout = new SentenceSpout();
//字符串分隔计算模块
SplitSentenceBolt splitBolt = new SplitSentenceBolt();
//字符串统计模块
WordCountBolt countBolt = new WordCountBolt();
//最后打印模块
ReportBolt reportBolt = new ReportBolt();
//创建Topology
TopologyBuilder builder = new TopologyBuilder();
builder.setSpout(SPOUT, spout);
builder.setBolt(SPLIT_BOLT, splitBolt).shuffleGrouping(SPOUT);
builder.setBolt(COUNT_BOLT, countBolt).fieldsGrouping(SPLIT_BOLT, new Fields("word"));
builder.setBolt(REPORT_BOLT, reportBolt).globalGrouping(COUNT_BOLT);
Config config = new Config();
//定义本地storm集群,如果放在linux虚拟机上跑略有不同
LocalCluster cluster = new LocalCluster();
cluster.submitTopology(TOPOLOGY_NAME, config, builder.createTopology());
Thread.sleep(10000);
//kill Topology,当Topology启动以后会一直执行直到kill Topology
cluster.killTopology(TOPOLOGY_NAME);
//关闭集群,这个方法跟redis的集群关闭一样
cluster.shutdown();
}
}
</pre>
最后统计结果:
<pre>
---final counts---
a : 1553
ate : 1554
beverages : 1554
cold : 1554
cow : 1553
dog : 3107
don't : 3105
fleas : 3106
has : 1554
have : 1553
homework : 1554
i : 4658
like : 3106
man : 1553
my : 3107
the : 1554
think : 1553
---end---
</pre>
如果说这么就结束了,是不是太快了啊,来分析分析BaseRichSpout、BaseRichBolt代码结构吧:
<pre>

Paste_Image.png

</pre>
<p>关于BaseRichSpout的ack和fail这两个方法我不得不讲一下,因为是可以用在Tuple Stream传递后确认成功和失败,当成功以后可以打印成功的log失败以后可以在fail方法中定义重发.
</p>

<pre>

Paste_Image.png

</pre>
<p>关于BaseRichBolt的cleanup定义一个bolt结束时被执行,但是不能保证被执行。</p>
<p>BaseComponent类的存在也就是为了隔出一层出来实现getComponentConfiguration避免让更多的不需要的子类累赘实现这个方法。</p>
<p>总的来说storm暴露给我们常用的这几个类以及其结构还是很简单的,跟我们自身自己写代码的层次差不多,很容易理解。</p>
storm成长之路_初识就讲到这里啦,谢谢!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,826评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,968评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,234评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,562评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,611评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,482评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,271评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,166评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,608评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,814评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,926评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,644评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,249评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,866评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,991评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,063评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,871评论 2 354

推荐阅读更多精彩内容