首页 > Java > java教程 > 正文

Kafka Streams:基于键分组并创建全局 KTable,值为对象列表

心靈之曲
发布: 2025-08-23 23:04:02
原创
356人浏览过

kafka streams:基于键分组并创建全局 ktable,值为对象列表

本文档介绍了如何使用 Kafka Streams 基于键(例如 Scheme)对数据进行分组,并将结果存储在全局 KTable 中,其中键为字符串(Scheme),值为 RuleConfig 对象列表。通过示例代码演示了如何实现这一目标,并指出了在实现过程中需要注意的关键点,确保 KTable 能够正确地聚合和存储数据。

使用 Kafka Streams 构建 KTable,键为字符串,值为对象列表

在使用 Kafka Streams 处理数据时,经常需要根据某个键对数据进行分组,并将分组后的数据存储起来。本文将介绍如何使用 Kafka Streams 创建一个 KTable,其中键为字符串,值为对象列表。我们将以根据 Scheme 对 RuleConfig 对象进行分组为例,演示如何实现这一目标。

1. 数据准备

假设我们有一个名为 RuleConfig 的类,它包含 SCHEME、RULEORDER 和 REGEX 等属性。我们的目标是根据 SCHEME 对 RuleConfig 对象进行分组,并将具有相同 SCHEME 的 RuleConfig 对象存储在一个列表中。

2. Kafka Streams 代码

首先,我们需要创建一个 StreamsBuilder 对象,并从 Kafka 主题中读取数据。

StreamsBuilder builder = new StreamsBuilder();
KStream<String, RuleConfig> ruleConfigKStream = builder.stream(TOPIC_NAME, Consumed.with(stringSerde, ruleConfigSerde));
登录后复制

接下来,我们使用 groupBy 方法根据 SCHEME 对 KStream 进行分组。

KGroupedStream<String, RuleConfig> groupedKStream = ruleConfigKStream.groupBy((key, value) -> value.getScheme(), Grouped.with(Serdes.String(), ruleConfigSerde));
登录后复制

然后,我们使用 aggregate 方法将分组后的数据聚合到一个列表中。

表单大师AI
表单大师AI

一款基于自然语言处理技术的智能在线表单创建工具,可以帮助用户快速、高效地生成各类专业表单。

表单大师AI 74
查看详情 表单大师AI
KTable<String, List<RuleConfig>> ruleStore = groupedKStream.aggregate(
    ArrayList::new,
    (key, value, list) -> {
        list.add(value);
        return list;
    },
    Materialized.<String, List<RuleConfig>, KeyValueStore<Bytes, byte[]>>as(RULE_STORE)
        .withKeySerde(stringSerde).withValueSerde(listSerde)
);
登录后复制

在这个代码片段中,ArrayList::new 用于初始化聚合器的初始值(一个空的 ArrayList)。第二个参数是一个 lambda 表达式,它接受键、值和当前列表作为输入,并将新的 RuleConfig 对象添加到列表中。Materialized 用于指定 KTable 的存储方式,包括存储名称、键序列化器和值序列化器。

3. 获取 KTable 中的数据

最后,我们可以使用 kafkaStreams.store 方法获取 KTable 的只读视图,并从中检索数据。

ReadOnlyKeyValueStore<String, List<RuleConfig>> ruleKVStore = kafkaStreams.store(StoreQueryParameters.fromNameAndType(RULE_STORE, QueryableStoreTypes.keyValueStore()));

List<RuleConfig> ruleConfigs = ruleKVStore.get("MC");
登录后复制

这段代码首先通过 kafkaStreams.store 获取名为 RULE_STORE 的 KTable 的只读视图。然后,使用 ruleKVStore.get("MC") 检索键为 "MC" 的 RuleConfig 对象列表。

4. 注意事项

  • 确保正确配置了键和值的序列化器和反序列化器。
  • Materialized.as 的位置非常重要,它应该作为 aggregate 方法的最后一个参数。
  • KTable 中的数据是持久化的,因此需要合理规划存储空间。
  • 可以使用 QueryableStoreTypes 提供的不同查询类型来访问 KTable 中的数据。

5. 总结

本文介绍了如何使用 Kafka Streams 创建一个 KTable,其中键为字符串,值为对象列表。通过示例代码演示了如何根据 Scheme 对 RuleConfig 对象进行分组,并将具有相同 Scheme 的 RuleConfig 对象存储在一个列表中。希望本文能够帮助你更好地理解和使用 Kafka Streams。

以上就是Kafka Streams:基于键分组并创建全局 KTable,值为对象列表的详细内容,更多请关注php中文网其它相关文章!

相关标签:
Kafka Eagle可视化工具
Kafka Eagle可视化工具

Kafka Eagle是一款结合了目前大数据Kafka监控工具的特点,重新研发的一块开源免费的Kafka集群优秀的监控工具。它可以非常方便的监控生产环境中的offset、lag变化、partition分布、owner等,有需要的小伙伴快来保存下载体验吧!

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号