spark在风控用户团伙中的应用

spark在风控用户团伙中的应用

引言

2020年年初业务稳步增长,风控方面遇到了挑战,作为C2C(类似于得物、咸鱼)交易平台,难免会遇到用户团伙进行薅平台羊毛、自买自卖的行为,风控团队将用户的历史数据整合后,希望从中圈选出各个大大小小的团伙,来防止团伙内部和团伙之间进行交易,数据量大,纬度复杂,经过几个周的磨合尝试,以及和某些小额贷款公司的交流,终于确定了一套完整的团伙发现体系,最终走向数据的实时化,其中spark的GraphX和streaming占据重要位置。接下来简述1.0版本的应用。

SparkGraphX

更新中。。。

Neo4j

neo4j是一个开源的图数据库(集群版不开源,按节点收费,贼贵,单节点免费),同一业务拆分了一下,能满足当前的数据需求。只做查询,不做计算,之前也考虑过计算,效率低,内存消耗高,最终选择了SparkGraphX作为计算。
更新中。。。

SparkStreaming

sparkStreaming(有条件的用flink)做两件事:

1、秒级实时关系存储

数据源:binlog(kafka)
数据存储:neo4j、kafka、redis
处理过程:(1)、普通数据,A用户的a特征,直接存储到neo4j、kafka、redis
(2)、多重join的数据,需要两个topic进行join的,没有用直接用join,用的是窗口函数+groupByKey
窗口大小是4s钟,滑动间隔是2s钟(根据业务本身延时和数据本身延时决定,因为此动作触发后,app会有几秒的等待时间,以及多个动作后的结果,保证风控数据到位后,业务才会去调用,否则,当羊毛党都薅完羊毛了,才检测到有风险,岂不是有些扯淡,所以有些动作比较卡,不是数据拥挤导致的,也许就说程序员在里面写的sleep(n),哈哈哈)。比如uid和支付id的关联关系,需要两个表,表中关键字段分表是,(order_id, uid)(order_id, pay_id)
,先将两个topic合流,然后调出相同字段

 .map(elem => (((elem._1, elem._2), elem._3), 1)) // ((提现表关联 ,order_id),uid/pay_id)
 .reduceByKeyAndWindow((x:Int, y:Int)=>x+y, Seconds(30), Seconds(15))
 .map(elem=>(elem._1._1, elem._1._2)) //
 .groupByKey() // (统一表名 ,订单id) => (uid+pay_id)
 .map(elem=>{
    
    
 	//整理数据,除了提现表关联,还有很多关联关系
 }).foreach(存储)

neo4j

  //更新关系
  private def relationShip(session: Session, uid: Int, flag_label:String, flag_type:String, fuid: String): Any = {
    
    

    val sql =  s"""
                  |match (p1:User{userId:$uid})-[r:$flag_type]->(p2:$flag_label{flagId:"$fuid"}) return p1.userId as uid
                """.stripMargin

    val result: StatementResult = session.run(sql)

    if (!result.hasNext) {
    
    

      val sql1 =
        s"""
           |MERGE (p1:User{userId:$uid})
           |MERGE (p2:$flag_label{flagId:"$fuid"})
        """.stripMargin

      session.run(sql1)

      val sql =
        s"""
           |MATCH (p1:User{userId:$uid}),(p2:$flag_label{flagId:"$fuid"})
           |MERGE (p1)-[r:$flag_type{score:1}]->(p2)
           |RETURN p1.userId as uid
        """.stripMargin
      val rel: StatementResult = session.run(sql)
      if (rel.hasNext) {
    
    
        val record = rel.next()
        val uid = record.get("uid").toString
        println(uid)
      }else{
    
    
        System.err.println("error:"+uid+flag_label+flag_type+fuid)
      }
    }
  }

  /**
    * 获取Driver
    * @return
    */
  def getDriver(): Driver = {
    
    
    val url = "bolt://neo4j01:8687"
    val user = "user"
    val password = "password"
    val driver = GraphDatabase.driver(url, AuthTokens.basic(user, password), Config.build()
      .withMaxIdleSessions(1000)
      .withConnectionLivenessCheckTimeout(10, TimeUnit.SECONDS)
      .toConfig)
    driver
  }

  /**
    * 获取Session
    * @param driver
    * @return
    */
  def getSession(driver: Driver): Session = {
    
    
    val session = driver.session()
    session
  }

kafka

 def resToKafka(ssc: StreamingContext, kafkaDStreamValue: DStream[(String, String, String, String)]): Unit = {
    
    
    //广播KafkaSink
    val kafkaProducer: Broadcast[KafkaSink[String, String]] = {
    
    
      val kafkaProducerConfig = {
    
    
        val p = new Properties()
        p.put("group.id", "realtime")
        p.put("acks", "all")
        p.put("retries ", "1")
        p.setProperty("bootstrap.servers", GetPropKey.brokers)
        p.setProperty("key.serializer", classOf[StringSerializer].getName)
        p.setProperty("value.serializer", classOf[StringSerializer].getName)
        p
      }
      ssc.sparkContext.broadcast(KafkaSink[String, String](kafkaProducerConfig))
    }

    //写入Kafka
    kafkaDStreamValue.foreachRDD(rdd => {
    
    
      if (!rdd.isEmpty()) {
    
    
        rdd.foreachPartition(partition => {
    
    
          partition.foreach(elem => {
    
    
            val flag_label = elem._3
            if (!flag_label.equals("null")) {
    
    
              val auth_info = elem._1
              val uid = elem._2.toInt
              val flag_type = elem._4
              val value = dataJson(uid, auth_info, flag_label, flag_type)
              kafkaProducer.value.send("risk_user_auth_info", value)
            }
          })
        })
      }
    })
  }


  /**
    * json格式化
    *
    * @param uid
    * @param fid
    * @param flag_label
    * @param flag_type
    * @return
    */
  def dataJson(uid: Int, fid: String, flag_label: String, flag_type: String): String = {
    
    
    val map = Map(
      "user_id" -> uid,
      "flag_id" -> fid,
      "flag_label" -> flag_label,
      "flag_type" -> flag_type
    )
    JSONObject.apply(map).toString()
  }

2、纬度关联+存储

数据源:risk_user_auth_info(1中写入kafka的延时队列)
数据存储:redis
处理过程:从延时队列中取出数据,到redis中查询出关系,归结到父节点(迭代版本中加入了算法进行合并和拆分图),再存入redis

Drools

更新中。。。

猜你喜欢

转载自blog.csdn.net/jklcl/article/details/112852112