NLP 中的 Transfer-learning(迁移学习)探究

迁移学习是机器学习中比较火的一块领域,使用迁移学习可以减少模型的训练数据量,加快训练速度等优点。在学术界和工业界都有很好的应用。迁移学习首先广泛用于图像处理中,近些年才应用到 NLP 领域。也是 NLP 领域中比较新的内容,从 18 年开始 Google、OpenAI、Fastai 都有相应的研究论文。这代表了未来的一个趋势与方向。

本场 Chat 主要围绕 BERT 的原理与使用,首先针对 BERT 模型进行深入剖析,然后从原理到实践逐步进行讲解,最后对 UMLFIT 进行拓展阅读。从解决 TextClassification 这个经典的 NLP 问题为视角,对比分析两者的区别。学习本 Chat 可以拓展读者视野,锻炼读者的代码能力,探讨 NLP 领域最前沿的研究方向。

本场 Chat 内容如下:

  1. 了解 BERT 模型结构;
  2. 了解 Base-Attention 原理;
  3. 深入剖析 Self-Attention;
  4. 揭开 Transformer 的奥秘;
  5. BERT 案例展示;
  6. UMLFIT 与 BERT 解决 TextClassification 的差异。

本 Chat 适合有深度学习经验或者对深度学习有兴趣的读者阅读。

阅读全文: http://gitbook.cn/gitchat/activity/5c6a744fff00d04d11dd9d43

一场场看太麻烦?成为 GitChat 会员,畅享 1000+ 场 Chat !点击查看

猜你喜欢

转载自blog.csdn.net/valada/article/details/87927209
今日推荐