import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;
import org.springframework.kafka.listener.ContainerProperties;
import java.util.HashMap;
import java.util.Map;
@Configuration
@EnableKafka
public class kafkaConsumerConfig {
@Value("${kafka.broker}")
private String servers;
@Value("${kafka.groupId}")
private String groupId;
@Bean
public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> batchFactory() {
ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory();
factory.setConsumerFactory(consumerFactory());
factory.setConcurrency(3);
factory.getContainerProperties().setPollTimeout(1500);
factory.getContainerProperties().setAckMode(ContainerProperties.AckMode.MANUAL);
//设置批量消费
factory.setBatchListener(true);
return factory;
}
public ConsumerFactory<String, String> consumerFactory() {
return new DefaultKafkaConsumerFactory(consumerConfigs());
}
public Map<String, Object> consumerConfigs() {
Map<String, Object> propsMap = new HashMap<>();
propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, servers);
//禁用自动提交偏移量
propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
//与消费者协调器保持会话的超时时间
propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 10000);
propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, groupId);
//每次拉取的消息数量
propsMap.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 2000);
//每次拉取请求的最小字节数 5M
propsMap.put(ConsumerConfig.FETCH_MIN_BYTES_CONFIG, 1024 * 1024 * 2);
//即如果数据量小于fetch.min.bytes,消费者等待的最长时间
propsMap.put(ConsumerConfig.FETCH_MAX_WAIT_MS_CONFIG, 1000 * 20);
return propsMap;
}
}
kafka consumer
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 问题描述 使用 Apache Flink 连接支持 Apache Kafka的Azure Event Hub后,由...
- 一、前言 今天这一篇我们来说一下 Consumer 是如何加入 Consumer Group 的,我们前面有一篇 ...
- 1、Consumer工作过程 对每个存在的topic,可以有多个消费组订阅同一个topic(对应消息系统中的广播)...
- consumer比producer要复杂许多,producer没有组的概念,也不需要关注offset,而consu...
- 在新建一个Consumer时,我们可以通过指定groupId来将其添加进一个Consumer Group中。Con...