[学习笔记】
パッケージのCOM
インポートorg.apache.spark.rdd.RDD
インポートorg.apache.spark.SparkConfの
インポートがorg.apache.spark.SparkContext
TestRDD {オブジェクト
デフメイン(引数を:配列[文字列]):単位= {
ヴァルCONF =新しいSparkConf()。setAppName( "TestRDD")。setMaster( "ローカル")
ヴァルSC =新しいSparkContext(CONF)
ヴァルRDD1 = sc.makeRDD(リスト(1、4、3、7、5))
ヴァルrdd1_1 = rdd1.map {Y =>のy * yを}
ヴァルaListの= rdd1_1.collect()
のprintln(+ aList.mkString( "") "マップ用法である")
、ヴァルRDD2 = sc.makeRDD(配列(1、4 3、7、5))
ヴァルrdd2_1 = rdd2.filter {X => X <5}
のprintln( "フィルタ用法" + rdd2_1.collect()。mkString( ""))
元の記事からの転載:https://blog.csdn.net/qq_44596980/article/details/93309621