Kafka Connect-HDFS with Hive Integration - SchemaProjectorException - Schema version requerired

       我创建了一个pipeline,如下所示:
(1)将tweets流数据写入Kafka的topic
(2)Confluent的HDFS Sin将tweets流写入到HDFS,并定义Hive表的集成。

       如果我不启用Hive integration时,一切都可以正常运行。但是启用时,会报如下错误:

org.apache.kafka.connect.errors.SchemaProjectorException: Schema version required for BACKWARD compatibility

       这个错误的原因是我使用了错误的Converter,比如要使用Avro,但是我使用了Json。

猜你喜欢

转载自blog.csdn.net/weixin_34266504/article/details/87110978