kafka安装配置

kafka安装配置

kafka介绍

Apache Kafka是分布式发布-订阅消息系统。它最初由LinkedIn公司开发,之后成为Apache项目的一部分。Kafka是一种快速、可扩展的、设计内在就是分布式的,分区的和可复制的提交日志服务。
Apache Kafka与传统消息系统相比,有以下不同:
它被设计为一个分布式系统,易于向外扩展;
它同时为发布和订阅提供高吞吐量;
它支持多订阅者,当失败时能自动平衡消费者;
它将消息持久化到磁盘,因此可用于批量消费,例如ETL,以及实时应用程序

flume

Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
设计目标:
(1) 可靠性
当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。
(2) 可扩展性
Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。
(3) 可管理性
所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。
(4) 功能可扩展性
用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(file,HDFS等)。

kafka安装(单机版)

  1. 所需工具

    • JDK

    • kafka安装包(自带zookeeper)

    • zookeeper(可选,集群需要)

    • 操作系统:windows or linux or unix

  2. 安装步骤

    1. 安装JDK,自行百度安装

    2. 下载kafka安装包:官网下载,或者用命令行下载

      wget http://www-us.apache.org/dist/kafka/1.1.0/kafka_2.12-1.1.0.tgz

    3. 解压并移动到opt目录

      tar -zxvf kafka_2.12-1.1.0.tgz

      sudo mv kafka_2.12-1.1.0 /opt

    4. kafka目录说明

      • /config 所有相关的配置文件
      • /lib Kafka的依赖包
      • /bin Kafka的启动脚本
    5. 编辑config目录下的server.properties文件,加入以下配置并保存

      port=9092

      host.name=localhost

    image
    image
  1. 启动zookeeper和kafka

    • 启动zookeeper:bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
    • 启动kafka: bin/kafka-server-start.sh config/server.properties
    • 查看topic列表:bin/kafka-topics.sh --list --zookeeper localhost:2181
    • 创建单分区单副本的话题(topic)话题名称为test:bin/kafka-topics.sh --create -- zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
    • 创建消费者:bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test
    • 此时,命令行会进入运行状态,界面就卡住不动了,然后再新建一个终端窗口,进入kafka目录,继续创建一个生产者:bin/kafka-console-producer.sh --broker-list 172.22.2.140:9092 --topic test

kafka运作原理

  • Producer: 发送消息者
  • Consumer: 消息消费者
  • Consumer Group: 消费者团体
  • Broker: Kafka处理消息的节点,一个集群可以包含多个Brokers
  • Topic : 发送和消费消息主题
  • Partition: 储存Topic消息的分区, 每个Topic可以有多个Partitions
  • Partition Replica: 每个消息分区的副本, 每个Partition可以有多个副本,一般是2-3个

kafka的物理架构

image

Producer是通过连接Broker来发送消息的
Producer是向某个Topic来传递送消息的
发送到Topic中的消息是可以给不同Broker处理的
Consumer是连接到某个Broker来监听订阅的Topic的
Brokers是通过Zookeeper来进行管理的,并互相通知各自的运行情况
如果Producer或Consumer连接到的Broker没有相关的Topic的,那么消息会自动路由到相关的Broker, 下一次Producer或者Consumer会自动记住相关的Broker

image

在发送消息后,每个消息会依次排列到每个Partition

消息是可以通过配置来决定要在Partition上保留多久

每个消费者可以从不同队列位置来开始消费消息,并且可以重复消费

image

与flume的整合

  • 下载flume,或者使用wget下载

    wget http://www-us.apache.org/dist/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz

  • 解压后进入conf目录,新建配置文件hw.conf,内容如下

    a1.sources=r1

    a1.channels=c1

    a1.sinks=k1

    a1.sources.r1.type=exec

    #日志文件路径

    a1.sources.r1.command=tail -F /home/linweijian/abc.log

    a1.sources.r1.channels=c1

    a1.channels.c1.type=memory

    a1.channels.c1.capacity=10000

    a1.channels.c1.transactionCapacity=100

    a1.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink

    #kafka的topic

    a1.sinks.k1.topic=zhuti1

    #kafka的服务器地址

    a1.sinks.k1.brokerList=172.22.2.140:9092

    a1.sinks.k1.requiredAcks=1

    a1.sinks.k1.batchSize=20

    a1.sinks.k1.channel=c1

  • 返回flume的根目录,执行命令(执行该命令前需要先启动kafka和zookeeper)

    > /bin/flume-ng agent -n a1 -c conf -f conf/hw.conf -Dflume.root.logger=INFO,console 
    > 
    

控制台显示如下标识启动成功

image
  • 开启一个消费者端

    kafka-console-consumer.sh --topic=zhuti1 --zookeeper localhost:2181

  • 创建输出脚本test.sh如下:

    image
        #!/bin/bash  
        for((i=0;i<=1000;i++));
        do echo "kafka_test-"+$i>>/home/linweijian/abc.log;
        done
  • 执行该脚本,查看kafka消费者端输出

    image
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,194评论 6 490
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,058评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,780评论 0 346
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,388评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,430评论 5 384
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,764评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,907评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,679评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,122评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,459评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,605评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,270评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,867评论 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,734评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,961评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,297评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,472评论 2 348

推荐阅读更多精彩内容

  • Kafka简介 Kafka是一种分布式的,基于发布/订阅的消息系统。主要设计目标如下: 以时间复杂度为O(1)的方...
    Alukar阅读 3,074评论 0 43
  • 本文转载自http://dataunion.org/?p=9307 背景介绍Kafka简介Kafka是一种分布式的...
    Bottle丶Fish阅读 5,461评论 0 34
  • 背景介绍 Kafka简介 Kafka是一种分布式的,基于发布/订阅的消息系统。主要设计目标如下: 以时间复杂度为O...
    高广超阅读 12,826评论 8 167
  • 我不喜欢猫,猫会成精。 不是都说好了建国之后不许成精?早上睁眼发现枕头边上一个后脑勺。恍惚觉得有个男人躺在自己边上...
    神烦凡先生阅读 329评论 0 1
  • 酸菜鱼的做法「哈哈,偷笑」 1 草鱼洗净切薄片,加盐、深海鱼精、料酒、生粉,抓匀待用。2 酸菜稍微冲洗后切小段,西...
    _加油_阅读 178评论 0 0