本地开发spark streaming无法消费云主机kafka消息

1、Kafka集群在一个192.168.0.x网段的,而我们的生产者在集群外,无法将消息发送过去

错误:11:21:13,936 ERROR KafkaProducer - Batch containing 11 record(s) expired due to timeout while requesting metadata from brokers for onlinelogs-1


2、spark streaming作为消费者在集群之外,无法消费kafka里面的消息

例如:IDEA在本地做开发,但kafka部署在云主机上


解决方案:

配置advertised.host.name 参数,该参数配置为当前机器的外网IP即可,重启生效配置


参考博客:

http://blog.itpub.net/30089851/viewspace-2152671/


【来自@若泽大数据】

猜你喜欢

转载自blog.csdn.net/weixin_39182877/article/details/80138268
今日推荐