Flink Source(数据源)

以集合作为数据源

env.fromCollection(List(1, 2, 3, 4, 5, 6))

以文件作为数据源

env.readTextFile("路径/文件名.格式")

以端口作为数据源

env.socketTextStream("192.168.**.**",端口号)

以Kafka作为数据源

	val prop = new Properties()
    prop.setProperty(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.**.**:9092")
    prop.setProperty(ConsumerConfig.GROUP_ID_CONFIG,"flink-kafka-demo")
    prop.setProperty(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer")
    prop.setProperty(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer")
    prop.setProperty(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"latest")

	env.addSource(new FlinkKafkaConsumer[数据类型]([Topic名],new SimpleStringSchema(),prop))

猜你喜欢

转载自blog.csdn.net/weixin_38468167/article/details/111939380