[夏令营]——天津大学智能与计算学部夏令营随笔

前言

天大智算面了两次试。

7月6日面试

单独联系了老师,实验室面。

首先是五分钟的自我介绍。


问题:

  1. 上科大X老师那边是你自己联系的吗?
    不是,balabala

  2. 说一下对无监督句法分析的认识和理解,为什么能做无监督的呢?
    首先,我觉得最主要还是要去找一个训练的目标,该模型采用inside-outside的过程,balabala。中间被打断了一次,说:它这个是无监督的,不存在训练的数据。我回:嗯,对,继续balabala。

  3. 那你为什么觉得预训练模型,这个bert,可以导出句法树出来呢?
    (一开始比较闷,后来主要讲了两个方面)。1. 跑实验跑出的结果就是这样表明的 2. bert内部transformer的attention机制能够让它学习到比较复杂的结构。

  4. 你中文信息学报的贡献在哪里?
    基本是全程参与的,balabala。

  5. 所以这个实验基本都是你一个人完成的吗?
    差不多,balabala。

  6. 你对你自己的动手能力怎么评价?
    还算可以。只要有一个比较合适的环境、和明确的目的的话,我的迭代的效率会比较快,balabala。

  7. 读论文你大概读了多少篇英文的论文?
    三四十篇。(应该说多一点的,五六十篇)

  8. 有没有用英语写过论文?
    没有。

  9. 其它同学有没有什么问题?———你论文的工作中,句子和句子之间是有相同的词,就会有边吗?
    不是,句子和句子之间是没有边的。

  10. 你说一下动态规划的基本思想?
    给你一个完整的问题,这个问题它可以分成多个子问题。子问题和原问题有相同的结构、求解方式,原问题需要依靠子问题求解完,才能得到解。

  11. 用动态规划去寻找两个字符串的最长公共子序列?
    (答得不是很好)最主要就是找状态转移的方程,定义一个状态叫dp_ij,表示从i到j上两个字符串最长的子串。当j+1的时候,就去判断j+1(口误,说成了dp_ij)位置两个字符串是否一样…(停顿10秒)…如果是一样的话,可以选择把它加进来。也可以选择把它不加进来。如果不一样的话,dp_ij+1只能=dp_ij。

7月8日开营

基本没听

7月9日面试

稍微修改了一下PPT,结果面试我的又是熊老师和其它一些老师。
所以基本是重演了7月7日的自我介绍,然后就问了两个问题:

  1. 你的论文你是几作?
    1

  2. 说一说你觉得bert它好在哪里?今后的改进的策略是什么?
    好在哪里:主要是解决了语言模型都是单向的问题。底层基于transformer这样一个模型,该模型利用注意力机制,能够去学习得到,比如一个单词它与其它单词的关系,从而得到一个基于上下文的句子向量表示。
    改进的策略:目前在做的一个方向可能是融入外部信息。比如不去做掩膜token的这样一个完型填空任务,而是去掩膜一个span,或者是融入一些比如是句法这样的外部信息。

总结

天大夏令营水。
优营。

Guess you like

Origin blog.csdn.net/jokerxsy/article/details/118530140