欢迎光临散文网 会员登陆 & 注册

Flink Kafka Producer: 将消息流写入Kafka topic的必备工具

2023-07-14 11:16 作者:ingemar-  | 我要投稿

Kafka Producer


Flink Kafka Producer 被称为 FlinkKafkaProducer。它允许将消息流写入一个或多个 Kafka topic。

构造器接收下列参数:

  • 事件被写入的默认输出 topic

  • 序列化数据写入 Kafka 的 SerializationSchema / KafkaSerializationSchema

  • Kafka client 的 Properties。下列 property 是必须的:

    • “bootstrap.servers” (逗号分隔 Kafka broker 列表)

  • 容错语义



SerializationSchema


Flink Kafka Producer 需要知道如何将 Java/Scala 对象转化为二进制数据。

KafkaSerializationSchema 允许用户指定这样的 schema。它会为每个记录调用 ProducerRecord<byte[], byte[]> serialize(T element, @Nullable Long timestamp) 方法,产生一个写入到 Kafka 的 ProducerRecord。

用户可以对如何将数据写到 Kafka 进行细粒度的控制。你可以通过 producer record:

  • 设置 header 值

  • 为每个 record 定义 key

  • 指定数据的自定义分区


Flink Kafka Producer: 将消息流写入Kafka topic的必备工具的评论 (共 条)

分享到微博请遵守国家法律