ERROR [メイン] [org.apache.spark.streaming.StreamingContext] -エラーは、それを記念して、コンテキストを開始するように停止 org.apache.kafka.common.KafkaExceptionは:カフカ消費者の構築に失敗しました org.apache.kafka.clients.consumerで.KafkaConsumer。<初期化>(KafkaConsumer.java:702 ) org.apache.kafka.clients.consumer.KafkaConsumerました。<init>(KafkaConsumer.java:557 ) org.apache.kafka.clients.consumer.KafkaConsumerで。<init>(KafkaConsumer.java:540 ) org.apache.spark.streaming.kafka010.Subscribe.onStart(ConsumerStrategy.scala時:84) :org.apache.spark.streaming.kafka010.DirectKafkaInputDStream.consumer(DirectKafkaInputDStream.scalaで72 ) :org.apache.spark.streaming.kafka010.DirectKafkaInputDStream.startで(DirectKafkaInputDStream.scala 242 ) org.apache.spark.streamingで.DStreamGraph $$ anonfun $ $開始7 .apply(DStreamGraph.scala:54 ) $開始org.apache.spark.streaming.DStreamGraph $$ anonfun $で7 .apply(DStreamGraph.scala:54 ) scala.collection.parallelで.mutable.ParArray $ ParArrayIterator.foreach_quick(ParArray.scala:143 ) scala.collection.parallel.mutable.ParArray $ ParArrayIteratorで。foreachの(ParArray.scala:136 ) scala.collection.parallel.ParIterableLike $ Foreach.leaf(ParIterableLike.scala:時972 ) scala.collection.parallel.Task $$ anonfun $ tryLeaf $で1 .apply $ MCV $エスピー(作業。スカラ:49 ) scala.collection.parallel.Task $$ anonfun $ tryLeaf $で1 .apply(Tasks.scala:48 ) scala.collection.parallel.Task $$ anonfun $ tryLeaf $で1 .apply(Tasks.scala:48 ) scala.collection.parallel.Taskの$でクラス .tryLeaf(Tasks.scala:51 ) :scala.collection.parallel.ParIterableLike $ Foreach.tryLeaf(ParIterableLike.scalaで969 ) scala.collection.parallel.AdaptiveWorkStealingTasks $ WrappedTask $でクラス .compute(Tasks.scala:152 ) :scala.collection.parallel.AdaptiveWorkStealingForkJoinTasks $ WrappedTask.compute(Tasks.scalaで443 ) scala.concurrent.forkjoin.RecursiveActionで.exec(RecursiveAction.java:160 ) :scala.concurrent.forkjoin.ForkJoinTask.doExecで(ForkJoinTask.java 260 ) scala.concurrent.forkjoin.ForkJoinPool $ WorkQueue.runTaskで(ForkJoinPool.java:1339 ) scala.concurrentました。 forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979 ) :scala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.javaで107 ) で...実行中に別のスレッド使用org.apache.spark.util.ThreadUtilsを...() org.apache.spark.streaming.StreamingContextで.liftedTree1 $ 1:(StreamingContext.scala 578 ) :org.apache.spark.streaming.StreamingContext.start(StreamingContext.scalaで572 ) com.bw.streaming.day03.Spa1 $ .mainで(Spa1.scala:95 ) com.bw.streaming.day03.Spa1.main(Spa1.scala)で org.apache.kafka.common.KafkaException:によって引き起こさorg.codehaus.jackson.map.deser.std.StringDeserializerがありますないorg.apache.kafka.common.serialization.Deserializerのインスタンス org.apache.kafka.common.config.AbstractConfig.getConfiguredInstanceで(AbstractConfig.java:203 ) org.apache.kafka.clients.consumer.KafkaConsumerました。<init>(KafkaConsumer.java:663 ) org.apache.kafka.clients.consumer.KafkaConsumerで。<init>(KafkaConsumer.java:557 ) org.apache.kafka.clients.consumer.KafkaConsumerで。<init>(KafkaConsumer.java:540 ) org.apache.spark.streaming.kafka010.Subscribe.onStart(ConsumerStrategy.scala:で84 ) でorg.apache.spark.streaming.kafka010.DirectKafkaInputDStream.consumer(DirectKafkaInputDStream.scala:72)
私は何をしてプルカフカのストリーミング例の直接接続であります
その理由は、私は間違っているパッケージがエラーを紹介していますということです
あなたは良いチェックを持っています