我想通過 Flink 計算 Kafka 中的數據,但問題是 Kafka 中的 JASON 數據可能會發生變化。像這樣:{"data":{"template":25,"name":"name"}}或這個:{"data"{"type":"type1","props":"props","strem":"stream1"}而且我無法提前知道這個 JSON 中包含了多少數據。所以在使用 Flink 時有一個問題:streamExecutionEnvironment.addSource(new FlinkKafkaConsumer010<KafkaEvent>("flink", new KafkaEventSchema(), kafkaProps)) .flatMap(new KafkaEventToRow()).returns(getReturnType());那么Json數據這樣的時候如何定義pojo類型和mapFuncation呢?
添加回答
舉報
0/150
提交
取消