Flink Kafka Producer: 将消息流写入Kafka topic的必备工具
Kafka Producer
Flink Kafka Producer 被称为 FlinkKafkaProducer。它允许将消息流写入一个或多个 Kafka topic。
构造器接收下列参数:
事件被写入的默认输出 topic
序列化数据写入 Kafka 的 SerializationSchema / KafkaSerializationSchema
Kafka client 的 Properties。下列 property 是必须的:
“bootstrap.servers” (逗号分隔 Kafka broker 列表)
容错语义
SerializationSchema
Flink Kafka Producer 需要知道如何将 Java/Scala 对象转化为二进制数据。
KafkaSerializationSchema 允许用户指定这样的 schema。它会为每个记录调用 ProducerRecord<byte[], byte[]> serialize(T element, @Nullable Long timestamp) 方法,产生一个写入到 Kafka 的 ProducerRecord。
用户可以对如何将数据写到 Kafka 进行细粒度的控制。你可以通过 producer record:
设置 header 值
为每个 record 定义 key
指定数据的自定义分区
