Kafka

1. Kafka的介绍

Kafka是由Apache软件基金会开发的一个开源流处理平台,由ScalaJava编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消息。

2. 搭建环境

JDK 10+[图片上传中...(1.png-2f5f56-1625274266941-0)]

Zookeeper

Kafka 2.x

.NET 5

Visual Studio 2019

Confluent.Kafka

3. Kafka集群

集群的结构

如下图:


1.png
  • Zookeeper :对kafka选举做集群的节点的选举,可以看作是个数据库,可做分布式锁,可实现强一致性。

以下是选举流程

2.png

kafka每个节点服务运行后,首先向zk中注册 watcher ,注册成功后watcher就与该节点之间产生心跳,运行一段时间后当主节点宕机后,其对应的zk中的节点注册也会消失。同时激活watcher,读取剩下的所有节点确定宕机的节点的分区与消费信息,然后从剩下的节点中做选举。其中选举有三种情况:

  1. 正常选举:剩下的节点向ZK 发送指令LeadersandISR,写的快的节点为新的leader。

  2. 剩下一个节点 ,这个节点直接成为leader。

  3. 所有节点都宕机,等待其中一个恢复中。

4. 相关术语

  • Producer(生产者):生产数据对应客户端。
  • Consumer(消费者):负责处理kafka服务里面消息。
  • Consumer Group/Consumers(消费者组):就是kafka独特处理轮询还是广播。
    轮询:消费者每一个处理一条。
    广播:一条信息,多个消费者同时处理。
  • Broker(服务):就是kafka服务,一个Broker可以创建多个topic。
  • Topic(主题):写入broker的主题,一个kafka集群里面可以有多个Topic,为了区分业务和模块使用。
  • Partition(分区):把一个topic的信息分成几个区,利用多个节点把多个分区,放在不同节点上面,实现负载均衡,kafka内部实现的。
  • Replica(副本):防止主节点宕机数据丢失了,保证高可用。
  • Offset(偏移量):就是消息的主键,生产者写入数据后返回的偏移量,消费者消费数据知道数据消费的位置,防止重复消费。

5. Kafka集群消息管理

以下是示意图:


3.png
  1. 生产者生成的消息对Key做Hash 后做相应的规则区分放到 分区0/1 中的Leader中,Leader 会内部把数据备份到其他broker的备份中,这样的交叉备份的好处就是当其中一个broker 宕机后,不会导致数据的丢失。

6. Kafka的搭建

6.1 单机版(Docker 搭建)

搭建使用docker-compose.yml

version: '2'

services:
  zoo1:
    image: wurstmeister/zookeeper
    restart: unless-stopped
    hostname: zoo1
    ports:
      - "6181:2181"
    container_name: zookeeper_kafka

  # kafka version: 1.1.0
  # scala version: 2.12
  kafka1:
    image: wurstmeister/kafka
    ports:
      - "9092:9092"
    environment:
      KAFKA_ADVERTISED_HOST_NAME: 81.70.91.63
      # zoo1:2181 也可以改成:81.70.91.63:6181
      KAFKA_ZOOKEEPER_CONNECT: "zoo1:2181"
      KAFKA_BROKER_ID: 1
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
      KAFKA_CREATE_TOPICS: "stream-in:1:1,stream-out:1:1"
    depends_on:
      - zoo1
    container_name: kafka

运行:

到docker-compose.yml 所在的目录下运行:docker-compose up -d

6.2 集群版(Docker 搭建)

首先会对zookeeper 做集群

以下是 zk.yml 文件

version: '3.4'

services:
  zoo1:
    image: zookeeper:3.4
    restart: always
    hostname: zoo1
    container_name: zoo1
    ports:
    - 2184:2181
    volumes:
    - "/szw/volume/zkcluster/zoo1/data:/data"
    - "/szw/volume/zkcluster/zoo1/datalog:/datalog"
    environment:
      ZOO_MY_ID: 1
      ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
    networks:
      kafka:
        ipv4_address: 172.19.0.11

  zoo2:
    image: zookeeper:3.4
    restart: always
    hostname: zoo2
    container_name: zoo2
    ports:
    - 2185:2181
    volumes:
    - "/szw/volume/zkcluster/zoo2/data:/data"
    - "/szw/volume/zkcluster/zoo2/datalog:/datalog"
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=0.0.0.0:2888:3888 server.3=zoo3:2888:3888
    networks:
      kafka:
        ipv4_address: 172.19.0.12

  zoo3:
    image: zookeeper:3.4
    restart: always
    hostname: zoo3
    container_name: zoo3
    ports:
    - 2186:2181
    volumes:
    - "/szw/volume/zkcluster/zoo3/data:/data"
    - "/szw/volume/zkcluster/zoo3/datalog:/datalog"
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=0.0.0.0:2888:3888
    networks:
      kafka:
        ipv4_address: 172.19.0.13

networks:
  kafka:
    external:
      name: kafka

Kafka 做集群

以下是:kafka.yml 文件

version: '3.4'

services:
  kafka1:
    image: wurstmeister/kafka
    restart: always
    hostname: kafka1
    container_name: kafka1
    privileged: true
    ports:
    - 9092:9092
    environment:
      KAFKA_ADVERTISED_HOST_NAME: kafka1
      KAFKA_LISTENERS: PLAINTEXT://kafka1:9092
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://81.70.91.63:9092
      KAFKA_ADVERTISED_PORT: 9092
      KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
    volumes:
    - /szw/volume/kfkluster/kafka1/logs:/kafka
    external_links:
    - zoo1
    - zoo2
    - zoo3
    networks:
      kafka:
        ipv4_address: 172.19.0.14

  kafka2:
    image: wurstmeister/kafka
    restart: always
    hostname: kafka2
    container_name: kafka2
    privileged: true
    ports:
    - 9093:9093
    environment:
      KAFKA_ADVERTISED_HOST_NAME: kafka2
      KAFKA_LISTENERS: PLAINTEXT://kafka2:9093
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://81.70.91.63:9093
      KAFKA_ADVERTISED_PORT: 9093
      KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
    volumes:
    - /szw/volume/kfkluster/kafka2/logs:/kafka
    external_links:
    - zoo1
    - zoo2
    - zoo3
    networks:
      kafka:
        ipv4_address: 172.19.0.15

  kafka3:
    image: wurstmeister/kafka
    restart: always
    hostname: kafka3
    container_name: kafka3
    privileged: true
    ports:
    - 9094:9094
    environment:
      KAFKA_ADVERTISED_HOST_NAME: kafka3
      KAFKA_LISTENERS: PLAINTEXT://kafka3:9094
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://81.70.91.63:9094
      KAFKA_ADVERTISED_PORT: 9094
      KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
    volumes:
    - /szw/volume/kfkluster/kafka3/logs:/kafka
    external_links:
    - zoo1
    - zoo2
    - zoo3
    networks:
      kafka:
        ipv4_address: 172.19.0.16

networks:
  kafka:
    external:
      name: kafka

界面管理工具:用来监控集群管理

以下是:kafkamanage.yml 文件

version: "3.4"

services:
  kafka-manager:
    image: sheepkiller/kafka-manager:latest
    restart: always
    container_name: kafka-manager
    hostname: kafka-manager
    ports:
     - 9000:9000
    environment:
     ZK_HOSTS: zoo1:2181,zoo2:2181,zoo3:2181
     KAFKA_BROKERS: kafka1:9092,kafka2:9092,kafka3:9092
     APPLICATION_SECRET: letmein
     KM_ARGS: -Djava.net.preferIPv4Stack=true
    networks:
     kafka:
      ipv4_address: 172.19.0.17
networks:
  kafka:
    external:
      name: kafka

启动

#docker-compose 默认会创建网络,不需要手动执行
#如果执行错误,则需要删除其他的network
#docker network ls
#查看详细的 network
#docker network inspect name/id
#
docker network create --driver bridge --subnet 172.19.0.0/16 --gateway 172.19.0.1 kafka


docker-compose -f zk.yml -f kafka.yml -f kafkamanage.yml up -d

安装成功:
访问 kafkamanage 管理工具的地址:(http://81.70.91.63:9000/)

4.png

注意:添加cluster 和 Zookeeper host 注意默认数值提示,保存。

添加成功后:


5.png

7. 代码对接

7.1 生产者

Nuget:安装Confluent.Kafka包

对接代码:

public static async Task Produce(string brokerlist, string topicname, string content)
{
    string brokerList = brokerlist;
    string topicName = topicname;
    var config = new ProducerConfig
    {
        BootstrapServers = brokerList,
        Acks = Acks.All,
        // 幂等性,保证不会丢数据。
        EnableIdempotence = true,
        //信息发送完,多久数据发送到broker里面。
        LingerMs = 10000, 
        BatchNumMessages = 2,//字节数
        // 只要上面的两个要求符合一个,则后台线程立刻马上把数据推送给broker
        // 可以看到发送的偏移量,如果没有偏移量,则就是没有写成功
        MessageSendMaxRetries = 3,//补偿重试,发送失败了则重试 
        //  Partitioner = Partitioner.Random
    };

    using (var producer = new ProducerBuilder<string, string>(config).Build())
    {
        try
        {
            var deliveryReport = await producer.
                ProduceAsync(
                topicName, new Message<string, string> { Key = (new Random().Next(1, 10)).ToString(), Value = content });
            Console.WriteLine($"delivered to: {deliveryReport.TopicPartitionOffset}");

        }
        catch (ProduceException<string, string> e)
        {
            Console.WriteLine($"failed to deliver message: {e.Message} [{e.Error.Code}]");
        }
    }
}

注意:

  1. 生产端写ack ,消费端不需要。
  2. ACK 保证数据不丢失但是会影响到我们性能。越高级别数据不丢失,则写入的性能越差。
  3. 建议使用异步,性能比较好。
  4. ProduceAsync 中的Key:Key 注意是做负载均衡,比如,有三个节点,一个topic,创建了三个分区。一个节点一个分区,如果写入的数据的时候,没有写key,会导致,所有的数据存放到一个分区上面。如果用了分区,必须要写key .根据自己的业务,可以提前配置好。key的随机数,可以根据业务,搞一个权重,如果节点的资源不一样,合理利用资源。
  5. 数据写入如果默认一个分区,则是有顺序,如果是多个分区,则不能保证数据的顺序。

8. 数据的可靠性

数据的可靠性就是保证数据能写入Broker,并且在Broker宕机后重新选举出来的Leader也不会导致数据的丢失,这样就关系到了ACK的返回机制。

以下是Kafka的数据写入流程。


6.png

对于ACK的返回策略有两种:1. 半数以上的Follower完成同步返回ACK ,2. 全部的Follower完成同步返回ACK。

以下是两种ACK的优缺点对比

方案 优点 缺点
半数以上完成同步发送ACK 延迟低 选举Leader,容忍N台节点故障,需要2N+1个副本(数据的大量冗余)
全部完成发送ACK 选举Leader,容忍N台节点故障,需要N+1个副本 延迟高

最后Kafka选用了方案2 ,全部完成发送ACK。

9. ISR(同步副本集)

ISR: 同步的副本集合,维护当前还在存活办事的副本,由于数据可靠性的选择,解决防止当一个副本出现问题时候,不能正常的返回ack。

维护ISR的原理:维护是由ZK 完成的,一般的判断断线是:心跳与数据备份量。

如果是根据数据的备份量:leader和副本数据相差一定条数,则就认为副本节点断开,然后从isr移除,当数据备份跟的上来,然后又重新加入到ISR集合。

心跳:一定的时间没有进行心跳。 超过配置时间,则认为断开连接,从ISR中移除当心跳跟的上,在进入ISR集合。

kafka是个高吞吐的消息队列, 发送数据的时候,有批量发送的功能,每次发数据的可以发送大量的数据,这个是可配的。 所以如果根据条数,则副本节点会经常性的从ISR移除和加入。 因为这种考虑,kafka的开发者,选择使用根据时间来判断。

其中控制批量发送的条数就是: BatchNumMessages(可通过生产者代码对接中找到):当内存的数据条数达到了,立刻马上发送到Broker

10. ACKS

系统提供的ACK 设置有三种:-1,0, 1。默认设置是0。

10.1 ACKS为0

Broker接收到数据立刻返回到生产者ACK,并且在数据做持久化之前。如下图:


7.png

优点:性能最高。

缺点:丢失数据概率也最大。当Leader接收到数据,但是还没有持久化时宕机,会导致数据的丢失。

使用场景:日志系统,IOT设备状态信息上传。

10.2 ACKS为1

Broker接收到数据并且做完持久化落盘后返回到生产者ACK。如下图:


8.png

优点:性能中等。

缺点:有丢失数据概率也最大。当Leader接收到数据,。持久化后,没有做Follower Leader宕机。新的Follower 没有更新下Leader最新数据,然后选举成了Leader。只有通过人工介入找回数据。

使用场景:暂没发现。

10.3 ACKS为-1

Leader和所有的Follower全部落盘成功后返回ACK。如下图:


9.png

优点:数据不会丢失。

缺点:

  1. 导致新的问题爆出,幂等性问题。导致幂等性问题的原因为:当数据都备份完成,要返回ACK时候leader宕机,新的副本替代成为Leader,生产者因为没有收到ACK,所以补偿重试,再次发送信息导致数据重复。
  2. 性能比较低下,原因为:1. 数据的备份。2. 如果加入幂等性,服务端会验证数据的唯一性。
  3. 使用场景:使用不多。

11. 幂等性

var config = new ProducerConfig
{
BootstrapServers = brokerList,
Acks = Acks.All,
//开启幂等性的配置
EnableIdempotence = true,
}

开启幂等性:发送的数据的时候,服务端会验证信息的唯一性,如果之前发送过,就不在接受,然后只会保留一条相同的信息。

幂等性是由:消息ID,客户端ID,分区Key 共同的组成。

12. 生产者事务

如果发送的消息的Topic,是在多个分区,需要用事务的模式来保证多个分区的幂等性。
示例如下:

string brokerList = "192.168.1.2:9092,192.168.1.3:9093,192.168.1.4:9094";
// 不同的topic的testtransactionalId就不同
string topicName = "test";
// 不一样的topic,transactionalId就写的不一样。。
string transactionalId = "transtest1";
var config = new ProducerConfig
{
    BootstrapServers = brokerList,
    EnableIdempotence = true,
    Acks = Acks.All,
    TransactionalId = transactionalId,
};

using (var producer = new ProducerBuilder<string, string>(config).Build())
{
    try
    {
        //初始化事务
        producer.InitTransactions(DefaultTimeout);
        var currentState = ProducerState.InitState;
        producer.BeginTransaction();
        for (int i = 100; i < 110; i++)
        {
            var content = i.ToString();
            producer.Produce(
                topicName, new Message<string, string> { Key = content, Value = content });
        }
        //提交
        producer.CommitTransaction(DefaultTimeout);
    }
    catch (Exception ex)
    {
        //回滚 
        producer.AbortTransaction(DefaultTimeout);
        Console.WriteLine(ex.Message);
    }
}

如果:写入数据有一个 节点的Leader 失败,就会自动的通知其他的Leader 做书的回滚。

13. 高效的原理

13.1 批量发送

  1. 生产者发送数据是批量的

    生产者在进行数据的写入的时候,会有两个线程在维护,a.写数据的线程,b.后台线程。a.线程负责把数据写入到生产者维护的缓存区中。b.线程负责把缓存区的数据写入到Kafka 中。

    10.png
  2. 而控制b线程进入Kafka的变量就是:
    LingerMs = 10000, //时间毫秒为单位
    BatchNumMessages = 2,//字节数
    以上条件有一个就满足则立马写入Kafka节点中。

  3. 消费端消费数据的时候是批量的

13.2 顺序读写

大数据处理一般都是做的顺序读写:

增:顺序写入就可以。

修改:也是顺序的写入,后台线程会去处理,合并修改的数据。

删除:也是顺序的写入,后台线程会去处理,合并删除的数据。

所以,这类数据处理适合处理大量写入的数据,少了修改和删除的数据,因为这样会降低数据处理性能,并且修改,删除的数据处理也会有延时。

13.3 零拷贝

传统的数据处理是:三次数据的拷贝:磁盘->内核->用户进程->内核 ,目的就是为了保证资源的安全性。以下是示意图:


11.png

是由Linux 系统实现的一
种快捷的方式。减少了内核到用户,用户到内核的两次拷贝。如下图:


12.png

14. 消费者

消费者:有两种方式,一种是推送,一种是拉去。

14.1 推送

kafka主动去推数据,如果遇到高并发的时候,可能消费端还没有把之前的数据处理完,然后强推了大量的数据过来,有可能造成我们消费端的挂机

14.2 拉取

消费端主动的去拉取,可能存在数据延迟消费,不会造成我们消费端的宕机,同样的存在一个微循环,不停的拉取数据。

总结:kafka 选取的是拉取的模式去消费数据。对比同样的MQ ,rabbitmq 则,既可以使用拉取,也可以使用推送(推送的时候可以设置限流的方式)的方式去消费。

14.3 消费的偏移量Offset

0.9版本之前的编译量是由Zookeeper保存的维护的。

0.9版本之后是由自己维护(topic: __consumer_offsets)的。

14.4 代码的对接

public static void Run_Consume(string brokerList, List<string> topics, string group)
{
    var config = new ConsumerConfig
    {
        BootstrapServers = brokerList,
        GroupId = group,
        // 有些属性可以写,但是没有用到
        //Acks = Acks.All,
        //消费方式自动提交
        EnableAutoCommit = false,
        //消费模式 
        AutoOffsetReset = AutoOffsetReset.Earliest,
        //EnablePartitionEof = true,
        //PartitionAssignmentStrategy = PartitionAssignmentStrategy.Range,
        //FetchMaxBytes =,
        //FetchWaitMaxMs=1,   
        //代表数据超过了6000没有处理完业务,则把数据给其他消费端
        //一定要注意。SessionTimeoutMs值一定要小于MaxPollIntervalMs
        SessionTimeoutMs = 6000,
        MaxPollIntervalMs = 10000,
    };

    const int commitPeriod = 1;
    //提交偏移量的时候,也可以批量去提交
    using (var consumer = new ConsumerBuilder<Ignore, string>(config).SetErrorHandler((_, e) => Console.WriteLine($"Error: {e.Reason}")).SetPartitionsAssignedHandler((c, partitions) =>
      {
          //自定义存储偏移量
          //1.每次消费完成,把相应的分区id和offset写入到mysql数据库存储
          //2.从指定分区和偏移量开始拉取数据
          //分配的时候调用
          Console.WriteLine($"Assigned partitions: [{string.Join(", ", partitions)}]");
          #region 指定分区消费
              // 之前可以自动均衡,现在不可以了 
              //List<TopicPartitionOffset> topics = new List<TopicPartitionOffset>();
              //// 我当前读取所有的分区里面的从10开始
              //foreach (var item in partitions)
              //{
              //    topics.Add(new TopicPartitionOffset(item.Topic, item.Partition, new Offset(10)));
              //}
              //return topics;
           #endregion
              }) .SetPartitionsRevokedHandler((c, partitions) =>
                {
                    //新加入消费者的时候调用 
                    Console.WriteLine($"Revoking assignment: [{string.Join(", ", partitions)}]");
                 }).Build())
        {
        //消费者会影响在平衡分区,当同一个组新加入消费者时,分区会在分配
        consumer.Subscribe(topics);
        try
        {
            // 死循环 拉取模式
            while (true)
            {

                try
                {
                    var consumeResult = consumer.Consume();

                    if (consumeResult.IsPartitionEOF)
                    {
                        continue;
                    }
                    Console.WriteLine($": {consumeResult.TopicPartitionOffset}::{consumeResult.Message.Value}");

                    if (consumeResult.Offset % commitPeriod == 0)
                    {
                        try
                        {
                            //提交偏移量,数据自己已经处理完成了
                            consumer.Commit(consumeResult);
                        }
                        catch (KafkaException e)
                        {
                            Console.WriteLine($"Commit error: {e.Error.Reason}");
                        }
                    }
                }
                catch (ConsumeException e)
                {
                    Console.WriteLine($"Consume error: {e.Error.Reason}");
                }
            }
        }
        catch (OperationCanceledException)
        {
            Console.WriteLine("Closing consumer.");
            consumer.Close();
        }
    }
}
//调用方式
Consumer("192.168.1.10:9092,192.168.1.11:9093,192.168.1.12:9094", "test", "groupname");
  1. 自动ACK:Acks = Acks.All 标记是无效的
  2. 消费提交:EnableAutoCommit = false,自动提交服务端数据已经消费,服务端标记本数据为。一般设置为:false。如果设置成True自动提交,在接收到数据后处理过程出现异常,会导致无法重复消费这个数据,丢失。如设置成false,可能导致数据的重复消费,比如手动提交时候服务器断开。重新连接后重复消费,解决办法就是:发送消息加上一个唯一ID,消费了就加入到Redis 中,下次来了判断数据是否消费过,没消费就重新消费,消费了就提交。
  3. 消费模式:AutoOffsetReset:AutoOffsetReset.Latest 即:0,表示消费者消费启动之后的数据。启动之前的服务端还没消费的数据消费不到。AutoOffsetReset.Earliest = 1,每次都从头开始消费没有消费过的数据(推荐模式)。AutoOffsetReset.Error = 2.。报错后无法消费。
  4. 消费端:组和组之间是广播模式,组内是根据分区数量。多个客户端去消费,如果是组相同则自动做负载均衡,开启的消费的相同组客户端最大数量等于分区的数量,开启多出来的客户端消费不到数据。重新连接新的组则从新的消费该组没有消费的数据与别的组消费数据无关。 原则上是:topic的数量=broker的数量,broker数量=分区数量,分区数量=一个组内的消费者数量。

15. 异常情况消费

当Leader offset 为8 宕机 Follow1 offset 为7 Follow2 offset 为6 Follow2选择为Leader 。消费数据的时候是能从8 消费的,但是Follow2 最为主节点时候,没有8 。这种情况Kafka是这样处理的。

Kafka使用的 LEO和HW的机制去处理的。

LEO:指的是每个副本最大的 offset。

HW:指的是消费者能见到的最大的 offset,ISR队列中最小的 LEO。

这样就保证了消费者看到的是全部备份完的的偏移量了。

16. 高级消费

如果当前超过时间没有消费完成,则返回给另一个分区去消费,以下是设置参数。

SessionTimeoutMs = 6000,

MaxPollIntervalMs = 10000,

注意: MaxPollIntervalMs的值必须大于等于SessionTimeoutMs

上面类似心跳,如果消费水平太慢,则会引起重新分配

17. 文件储存机制

文件的架构:通过小文件的不断合并最后转成了一个大文件。结构如图:


13.png

保存文件的结构:

000000000000000000000000.log

000000000000000000000000.index

000000000000000000000700.log

000000000000000000000700.index

000000000000000000002000.log

000000000000000000002000.index

注意:log文件和index 文件是成对出现的,000000000000000000000000.log 保存的是 0-699 的数据。

数据的查找:通过文件的名字,使用的二分发做的查找。如下图:


14.png

注意:除了爆露出来的偏移量之外,Kafka 内部还key值对应与log文件中。

18. 日志的压缩策略

kafka定期将相同key的消息进行合并,只保留最新的value值。

保存的每一条数据,会记录是增加,删除,还是修改。

19. 自定义存储

自定义存储(解决重复消费)

  1. 每次消费完成,把相应的分区和offset写入到mysql数据库。
  2. 从指定分区和偏移量开始拉取数据。

.SetPartitionsAssignedHandler((c, partitions) =>

{ //获取mysql存储结果,从当前开始获取

foreach (var item in partitions)

{
topics.Add(new TopicPartitionOffset(item.Topic, item.Partition, new Offset(10)));
}
})
consumer.Assign(topics.Select(topic => new TopicPartitionOffset(topic, 1, Offset.Beginning)).ToList());

20.注意:

  1. 消费者 一般使用workservice。
  2. 消费端只关心topic和偏移量,其余不关心。
  3. 保留7天,kafka可以配置。默认7天,消息积压有处理。
  4. 消费数据先消费Leader 的。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,406评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,732评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,711评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,380评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,432评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,301评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,145评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,008评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,443评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,649评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,795评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,501评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,119评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,731评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,865评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,899评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,724评论 2 354

推荐阅读更多精彩内容