黑猴子的家:Scala 偏函数

1、偏函数 之 PartialFunction

偏函数,它只对会作用于指定类型的参数或指定范围值的参数实施计算
被包在花括号内的一组case语句是一个偏函数(partial function),一个并非对所有输入值都有定义的函数。
它是PartialFunction[A,B]类的一个实例(A是参数类型,B是返回类型)
该类有两个方法,apply 方法从匹配到的模式计算函数之,而isDefinedAt 方法 在输入至少匹配其中一个模式时,返回true

println("偏函数")

val f: PartialFunction[Char, Int] = {
  case '+' => 1
  case '-' => -1
}

println(f('-'))
println(f('+'))
println(f.isDefinedAt('0'))
//偏函数,调用的时候,一定要进行一下判断
//判断它能不能处理,不能处理是会报异常的
if (f.isDefinedAt('-')) {
  println(f.isDefinedAt('-'))
}

2、偏函数 之collect

有一些方法接受PartialFunction作为参数。举例来说,GenTraversable特质的Collect方法将一个偏函数应用到所有在该偏函数有定义的元素,并返回包含这些结果的序列

println(
    "-3+4".collect{
      case '+' => 1
      case '-' => -1
    }
)

3、偏函数 之 map

完全覆盖了所有场景的样例字句组成的集定义的是一个Function1,而不仅仅是一个partialFunction,只要预期这样一个函数,你都可以将它传入

println(
  "-3+4".map {
    case '+' => 1
    case '-' => -1
    case _ => 0
  }
)

4、偏函数应用List集合 加一(方式一)

val f1 = new PartialFunction[Any, Int]{
  def apply(any: Any) = any.asInstanceOf[Int] + 1
  def isDefinedAt(any: Any) = if (any.isInstanceOf[Int]) true else false
}

val rf1 = List(1, 3, 5, "seven") collect f1
val rf2 = List(1, 3, 5, "seven").collect(f1)
println(rf1)

尖叫提示:collect只匹配自己能匹配的

5、偏函数应用List集合 加一(方式二)

def f2: PartialFunction[Any, Int] = {
  case i: Int => i + 1
}
val rf3 = List(1, 3, 5, "seven") collect f2
println(rf3)

尖叫提示:collect只匹配自己能匹配的

6、map 和 collect的区别

(1)遍历Map,年龄加1

val map1 = Map("Alex" -> 20, "Bob" -> 30)
map1.map(x => println(x._2 + 1))

map1.map{
  case (_,age) => println(age + 1)
}

(2)map和collect 的区别+源码解析
map和collect 是函数名,和Map集合映射不是一回事
map 和 collect 区别,collect忽略匹配不上的 ,map如果有匹配不上的包异常

val map1 = Map("Alice" -> 20,"Bob" -> 30)
map1.map{case(_,age) => println(age+1)}
map1.map(a => a._2+1)
map1.collect{
   case (_,age) => println(age+1)
}

// List(1,2,3,4,"heihei") map{case i:Int => println(i+1)}
List(1,2,3,4,"heihei") collect {case i:Int => println(i+1)}

你只想处理,里面的某些特殊类型,就用collect,直接case就行,这比java方便多了,
我只想在集合里面挑选我想要的东西,这就跟逛超市一样,很符合人类的常理思路
这是map和collect的应用,但是在spark里面,尽可能的不用collect,这个Spark的机制也有很大的关系,你一调用collect,就相当于,把所有的数据,加载到内存里面了,数据相当大的话,会内存溢出,或者特别卡

当你学完spark了,你也一定要回来再看看Scala,Scala这本书,是常读常新的,你要多去反复的揣摩

(3)常读常新
“常读常新”是一种阅读方法,一种阅读取向,一种阅读作风。
古人云:“温故而知新”,“学而时习之”。
今人曰:常读常新,常新常读。
“温故”、“时习”、“常读”虽异曲但同工,都道出了“故”与“新”的辩证关系,故知、故作为时习、常读而后才知新、常新。

通俗的说 也就是一篇文章可以多读几遍 这样每次都会有新的感悟和发现,经常读经常会发现新的东西,就是每次都有新发现

转载于:https://www.jianshu.com/p/f7d9341a34da

猜你喜欢

转载自blog.csdn.net/weixin_34005042/article/details/91182464