HelloWorldの例は、ScalaのRDDを与えているしてください

[学习笔记】
パッケージのCOM
インポートorg.apache.spark.rdd.RDD
インポートorg.apache.spark.SparkConfの
インポートがorg.apache.spark.SparkContext

TestRDD {オブジェクト
  デフメイン(引数を:配列[文字列]):単位= {
    ヴァルCONF =新しいSparkConf()。setAppName( "TestRDD")。setMaster( "ローカル")
    ヴァルSC =新しいSparkContext(CONF)

    ヴァルRDD1 = sc.makeRDD(リスト(1、4、3、7、5))
    ヴァルrdd1_1 = rdd1.map {Y =>のy * yを}
    ヴァルaListの= rdd1_1.collect()
    のprintln(+ aList.mkString( "") "マップ用法である")

    、ヴァルRDD2 = sc.makeRDD(配列(1、4 3、7、5))
    ヴァルrdd2_1 = rdd2.filter {X => X <5}
    のprintln( "フィルタ用法" + rdd2_1.collect()。mkString( ""))

元の記事からの転載:https://blog.csdn.net/qq_44596980/article/details/93309621

おすすめ

転載: www.cnblogs.com/haima1949/p/11227010.html