ASE code search -- 第二次结对编程作业

baseline 复现

baseline模型

我们再这次实验中选择了deep code search方法作为了解并复现。下面介绍一下这两种方法

模型的结构在论文中已经介绍的非常清楚了,有兴趣的同学可以仔细看一下论文:

模型分为两部分

  • code encoder
  • description encoder

将代码和描述编码到同一线性空间

code encoder: 用于给出代码的向量表示。代码可以表示三部分方法名称,api序列和tokens。方法名称和api拥有前后关联顺序,使用word embedding + RNN+maxpooling得到。而tokens实际上不存在上下文关系,直接使用word embedding + max pooling得到。

description encoder:用于给出自然语言的向量表示,使用RNN+ pooling 表示

优缺点分析

优点: 有效的提取了代码和描述的语义特征,其中代码的特征由多个方面组成比较完备 缺点: 使用单向RNN作为特征提取有局限性,代码不像单纯的自然语言处理里用RNN就能抽取较好的特征

效果

我和队友复现了CODEnn模型,具体的复现过程loss变化如下 其中衡量复现效果的四个metric的变化过程如下: 我们把batch_size设置为64,并且结合一些测试训练的结果把learning rate设置为decay的形式。最终的复现结果如下表所示,和文档里给出的最佳模型作比较在test set上性能几乎一致。

datasets acc@top5 acc@top10
validation set(pool=200) 0.780680 0.860476
validation set(pool=800) 0.600521 0.704167
test set(pool=200) 0.779558 0.861565
test set(pool=800) 0.595174 0.700799

前端展示部分

值得一提的是,我们写了点前端代码来方便演示模型的最终效果。我们拿一些例子跑了一下,有的时候返回的结果还是挺不错的,但是对于数据集里没有覆盖到的代码返回结果就很凌乱。比如论文中有一个例子,”get the content of an input stream as a string using a specified character encoding“,测试结果如下:

再比如可以测试一下简单需求”load json":

但是还是存在大量的搜索是不大ok的,比如“make hex string into integers"

提出改进方法

可以尝试将RNN替换为进来nlp领域比较常用的multi-head self-attention模型,或者multi-head self-attention。这么做有两个好处:

  1. RNN是串行的神经网络,这导致他在训练时的速度远远慢于别的网络结构
  2. multi-head self-attention 和 multi-head self-attention不仅计算速度快,而且相较于Conv1D可以更好地捕获长距离单词之间的联系

bert也可以考虑使用在description encoder部分

我注意到目前的CodeNN训练是没有使用与训练词向量的,这会导致模型的收敛速度较慢:800 epoch。可以考虑尝试用glove或者word2vec等预训练词向量,或者先在语料库上训练出自己的词向量,然后在此基础上进行finetune.

评价

我的队友是王皓,他是一个非常善于沟通且搜索能力很强的同学。在我们结对编程中,对原始数据集产生了很大疑惑的时候,王皓同学积极上网搜索,并找到了一个极为匹配这个任务的github比赛(可惜最后没时间做了)。虽然我们俩在这段时间都比较忙,但是我们依然很好的沟通和协调了各自的时间,并且合理减少了自己能力范围内的任务量。遗憾的地方是没有来得及实现我们的idea,如果能抽出时间我们很愿意做这个工作。

猜你喜欢

转载自www.cnblogs.com/yjw1029/p/11674751.html