【个人思考】2020-01-09笔记和思考

昨天在实验室开完了知识计算组,2019年秋学期的最后一个大的组会。
上台讲解的主要有三人,大师兄xu han,带我的学长yuan yao,以及另外一个博士生zhengyan zhang。这三人都非常的有意思。

带我的yuan yao先上台就用5分钟时间讲完了接下来的一个学期的主要工作,其中我的工作放在第三个。看来大家对我的工作还是挺认可的,觉得这个能够work,我也要努力才行呀。不过yuan哥讲的是在是太快了,让我忍不住暗暗吐槽一句hhhhh.

张学长讲的还是挺好的,主要做的是预训练语言模型的,他之前参与的工作有GNN的综述和对BERT模型的改进,写的非常不错,一年多多时间引用超过150次。此前在ICLR的论文研讨会上也对bert-like model有不错的见解,他指出了接下来的工作会主要放在模型的改进上,我觉得还是比较promising的。

韩师兄是最高屋建瓴的,从各个角度剖析了知识计算、知识获取这个角度在接下来的一年内有的新的方向和新的问题角度,让我受益匪浅。

三位师兄讲完了之后,大家都在等老板过来,老板过来之后重新看了一下三位师兄的内容,觉得张师兄讲的最差
原因让我觉得非常的震惊:
不是说提出的方向和idea不能work,而是因为其没有从一个广大的角度去全面的概括预训练语言模型
张师兄虽然描述了在fine-tune和训练时有很大的障碍,而这是他今后的努力方向之一。但是老板指出:我觉得你肯定能够做出来,你又不是不会发论文,而我们要做的工作要更加具有思考性。你需要从各种方面概括PLM面临的问题,从全局角度去统筹今后的努力方向。像你这种idea,我们这里本科生也能做,我们有这么多本科生。像你这样的高年级学生的工作,应该更加具有思考性才对,你是去指导本科生的

"我们要保证自己的工作需要更加具有思考性,别人做到什么程度如果别人也能想到的,说明这也没那么有意思,我们需要去做一些,问题容易想到但是idea不容易想到的,甚至说这个问题都不容易被人发觉,不容易被想到的,这样的工作才更有影响力。我们今年发表了39篇论文,还没有算上这一次的ACL投稿了19篇。太多了,太多了。明年不可以发这么多文章,我们需要保证每一篇对自己有更大的突破,也对学术界有更大的贡献"
我听完很有感触。我需要从更高的角度去思考问题了。
老板说话非常客观。他从不说自己的组是知识计算方面国内最强的(事实上很多人是觉得是这样的。
“我们组是知识计算国内最大的组”
而从不说自己是最强的,
如果说在这样的组里面最大的好处是什么,那么就是:
“在这里的idea如果做不出来,那么在别的地方做出来的概率也不会高。所以你就放心去做吧,有这么多的学长和老师。没问题的”

发布了1164 篇原创文章 · 获赞 1245 · 访问量 970万+

猜你喜欢

转载自blog.csdn.net/weixin_40400177/article/details/103933029