
本文详细阐述了如何在 Apache Flink 中使用 `KafkaSource` 读取包含键(Key)的 Kafka 记录。通过实现自定义的 `KafkaRecordDeserializationSchema`,用户可以完全访问 `ConsumerRecord` 对象,从而灵活地提取并处理记录的键、值、时间戳、分区、偏移量及其他元数据,克服了默认 `valueOnly` 反序列化器仅能获取记录值的局限性。
在使用 Apache Flink 的 KafkaSource 从 Kafka 读取数据时,常见的做法是利用内置的 KafkaRecordDeserializationSchema.valueOnly(StringDeserializer.class) 来反序列化记录。这种方法简单便捷,但它仅将 Kafka 记录的值部分反序列化为指定类型(例如 String),而忽略了记录的键、时间戳、分区、偏移量以及任何附加的头部信息。
对于生产者以键值对形式发送的 Kafka 记录,例如通过 kafka-console-producer.sh --property "parse.key=true" --property "key.separator=:" 生产的数据,如果仅使用 valueOnly 反序列化器,我们将无法在 Flink 应用程序中获取到这些关键的键信息,也无法访问记录的时间戳等其他元数据。
要解决上述局限性,核心在于实现一个自定义的 KafkaRecordDeserializationSchema。这个接口允许我们完全控制 Kafka ConsumerRecord 的反序列化过程。在 deserialize 方法中,我们可以直接访问到原始的 ConsumerRecord 对象,进而提取其键、值、时间戳等所有可用信息,并将其封装成 Flink 应用程序所需的任何自定义类型。
首先,我们定义一个简单的 Java POJO(Plain Old Java Object)来封装从 Kafka ConsumerRecord 中提取出的所有相关信息。这个POJO将作为自定义反序列化器的输出类型。
import java.io.Serializable;
public class KafkaRecordInfo implements Serializable {
public String key;
public String value;
public Long timestamp;
public String topic;
public int partition;
public long offset;
// Flink 需要一个无参构造函数来进行序列化和反序列化
public KafkaRecordInfo() {}
public KafkaRecordInfo(String key, String value, Long timestamp, String topic, int partition, long offset) {
this.key = key;
this.value = value;
this.timestamp = timestamp;
this.topic = topic;
this.partition = partition;
this.offset = offset;
}
@Override
public String toString() {
return "KafkaRecordInfo{" +
"key='" + key + '\'' +
", value='" + value + '\'' +
", timestamp=" + timestamp +
", topic='" + topic + '\'' +
", partition=" + partition +
", offset=" + offset +
'}';
}
}接下来,创建 KafkaRecordDeserializationSchema 的实现。在这个实现中,我们将重写 deserialize 方法来解析 ConsumerRecord,并重写 getProducedType 方法来声明输出类型。
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.connector.kafka.source.reader.deserializer.KafkaRecordDeserializationSchema;
import org.apache.flink.util.Collector;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import java.nio.charset.StandardCharsets;
public class CustomKafkaRecordDeserializationSchema implements KafkaRecordDeserializationSchema<KafkaRecordInfo> {
private static final long serialVersionUID = 1L; // 确保可序列化
@Override
public void deserialize(ConsumerRecord<byte[], byte[]> record, Collector<KafkaRecordInfo> out) throws Exception {
// 提取键,如果键存在则转换为字符串,否则为null
String key = (record.key() != null) ? new String(record.key(), StandardCharsets.UTF_8) : null;
// 提取值,如果值存在则转换为字符串,否则为null
String value = (record.value() != null) ? new String(record.value(), StandardCharsets.UTF_8) : null;
// 提取时间戳
Long timestamp = record.timestamp();
// 提取主题
String topic = record.topic();
// 提取分区
int partition = record.partition();
// 提取偏移量
long offset = record.offset();
// 将提取的信息封装到 KafkaRecordInfo 对象中并发出
out.collect(new KafkaRecordInfo(key, value, timestamp, topic, partition, offset));
}
@Override
public TypeInformation<KafkaRecordInfo> getProducedType() {
// 声明此反序列化器将生成 KafkaRecordInfo 类型的对象
return TypeInformation.of(KafkaRecordInfo.class);
}
}最后,将这个自定义的 CustomKafkaRecordDeserializationSchema 实例传递给 KafkaSource.builder().setDeserializer() 方法。
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.connector.kafka.source.KafkaSource;
import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer;
public class FlinkKafkaKeyedRecordReader {
public static void main(String[] args) throws Exception {
// 设置 Flink 执行环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1); // 示例设置为单并行度
String bootstrapServers = "localhost:9092"; // Kafka 集群地址
String topic = "test3"; // 你的 Kafka 主题
String groupId = "flink-consumer-group"; // 消费者组ID
// 构建 KafkaSource,使用自定义的反序列化器
KafkaSource<KafkaRecordInfo> source = KafkaSource.<KafkaRecordInfo>builder()
.setBootstrapServers(bootstrapServers)
.setTopics(topic)
.setGroupId(groupId)
.setStartingOffsets(OffsetsInitializer.earliest()) // 从最早的偏移量开始消费
.setDeserializer(new CustomKafkaRecordDeserializationSchema()) // 使用自定义反序列化器
.build();
// 从 KafkaSource 创建数据流
DataStream<KafkaRecordInfo> stream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Keyed Source");
// 对接收到的数据进行处理和打印
stream.map(recordInfo -> "Received from Kafka: Key=" + recordInfo.key +
", Value=" + recordInfo.value +
", Timestamp=" + recordInfo.timestamp +
", Topic=" + recordInfo.topic +
", Partition=" + recordInfo.partition +
", Offset=" + recordInfo.offset)
.print();
// 执行 Flink 作业
env.execute("Flink Kafka Keyed Record Reader");
}
}bin/kafka-console-producer.sh --topic test3 --property "parse.key=true" --property "key.separator=:" --bootstrap-server localhost:9092
输入消息,例如:
key1:valueA key2:valueB anotherKey:anotherValue
Received from Kafka: Key=key1, Value=valueA, Timestamp=1678886400000, Topic=test3, Partition=0, Offset=0 Received from Kafka: Key=key2, Value=valueB, Timestamp=1678886401000, Topic=test3, Partition=0, Offset=1 Received from Kafka: Key=anotherKey, Value=anotherValue, Timestamp=1678886402000, Topic=test3, Partition=0, Offset=2
这表明 Flink 成功地读取并解析了 Kafka 记录的键、值和时间戳等信息。
通过实现自定义的 KafkaRecordDeserializationSchema,Apache Flink 能够灵活且全面地处理来自 Kafka 的复杂记录结构,包括带键的记录、时间戳以及其他重要的元数据。这种方法为构建功能强大、数据解析精细的 Flink 流处理应用程序提供了坚实的基础。理解并掌握自定义反序列化机制是开发高级 Flink-Kafka 集成应用的关键一步。
以上就是在Apache Flink中定制KafkaSource以读取键值对记录的详细内容,更多请关注php中文网其它相关文章!
Kafka Eagle是一款结合了目前大数据Kafka监控工具的特点,重新研发的一块开源免费的Kafka集群优秀的监控工具。它可以非常方便的监控生产环境中的offset、lag变化、partition分布、owner等,有需要的小伙伴快来保存下载体验吧!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号