正常来说 ,数据的原点是日志file ,数据的终点是HDFS,为了让数据流起来 ,如何跨越重重网络和机器的阻碍 到达 终点 是很多人锁考虑的,为了 离线或者实时处理数据计算,我们需要对 组建日志 系统有一个清晰的认识,
比如 1. kafka --->flume---->HDFS---->SPARK streaming
或者2. flume--->kafka --->Spark streaming --->HDFS
第一种可以用作实时 或者离线,第二种主要用作实时处理
这中间 可能还会有 什么 redis 或者 MongoDB 一些Nosql 数据,我们就要看这些Nosql数据到底是想存储为主还是计算为主,存储的话就是往 Hdfs上发,计算的话就是往 Spark Streaming上发送
搭建日志组件链
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- Spark Streaming 编程指南 概述 一个入门示例 基础概念 依赖 初始化 StreamingConte...
- Spark Streaming 编程指南 概述 一个入门示例 基础概念 依赖 初始化 StreamingConte...
- Spark Streaming 编程指南1.概述Spark Streaming 是 Spark Core API ...
- 目前为止,已经讨论了机器学习和批处理模式的数据挖掘。现在审视持续处理流数据,实时检测其中的事实和模式,好像从湖泊来...