自然语言处理深度学习活跃研究领域概览

本文是纽约大学助理教授 Sam Bowman 关于自然语言处理中深度学习活跃领域的课程讲义PPT。对深度学习NLP领域最近较为活跃的研究进行了综述,其中包括Attention 模型、结构化记忆、词水平以上的无监督学习等等。Sam Bowman 在斯坦福大学完成博士学位,是Kris Manning 和 Chris Potts的学生。

我们正在快速进步

1480688772-1618-4e36a1ce40f4948b279e2000a400

深度学习中的活跃研究领域之NLP。

1480688773-4411-1a86527c44bb93d195db443412c7

大多数6岁儿童都能处理的语言问题,现在机器还远远做不到……但是,我们正在快速进步中。

1480688772-1662-e50ba23e48cc941e3c12750aac48

目录:

词,字或词素?

Muti-hop 注意力和结构化记忆学习

深度增强学习

有效的句子表征学习

低资源学习

在词水平线上的无监督学习

可解释性

常识

词,字和词素的优势和劣势

1480688773-6524-d94539174e2d8b368e5c6f72e2fa

词,字或词素

1480688772-3530-9cf318b94297a77f36473e8a6822

问题:我们如何把文本跨度表示为一个神经网络模型的输入或者输出?

换句话说:

编码器应该看到什么类型的符号?

解码器应该产生什么类型的符号?

1480688773-7627-1d636bfe4b338e4259e57ec7e976

1480688773-3537-94bb240b4e488c43270626a0334d

词语本身的问题?

优势:

容易标记化

与意义单元的基础相近

劣势:

词汇组成很大

1480688773-6233-503ba30f41428d6a6cc942713f03

词素?

优势:意义的基本单元

劣势:很难标记化

词汇组成依然很大

1480688773-7129-1acf910843bbae80e1685f2966c2

字节配对编码

优势

标注化比较简单

词汇构成可以自由条换

与意义的基本单元比较接近

劣势:

目前结果很混乱

1480688774-4501-e6d70e4e4433b204c419debc3081

字(字母)?

优势:

非常便于标注

没有生僻词的问题

最近的研究

1480688775-7440-1cdff5314dbb9ce3a41e6c3b1cee

1480688774-8902-256a4f4b4240aed9c7d0e5adc811

1.字母 n-Gram 嵌入

1480688774-3066-c21044d84c9ba129e23dbd4e939f

2. 神经机器翻译的一个混合模型

1480688774-6396-ef9363234eac8b37e0dbe0ed0e09

3. 神经机器翻译的字母+池化

Multi-HOP Attention 和 结构化记忆

1480688775-2938-7c2f90ff42c092cb03c5b76e5e12

1480688775-6821-a308914449528347cbc09d2e04cc

处理大型的输入

1480688775-3101-3112581348b2b3a4fd296b0f5574

记忆网络框架

1480688775-1312-2f7fb2a54f41977d679500ffa76a

原始记忆网络

1480688776-8437-967b589d4d5983bdfcd8393010f0

多变量:最近的研究,大多数都是关于阅读理解,包含了一些结构化的记忆。

1480688776-2752-94269a744b4288308caebd7466db

故事理解中,超过5-Grams的记忆网络

1480688777-8714-0475e6a8466b8699ef84b3ae353f

Attention + Attention +增加输入

深度增强学习

1480688776-2680-19936b284f72af20e823c5491616

1480688776-1150-b664313c40fcb36e70f77f1b3b71

深度增强学习的定义和介绍

1480688777-3748-6b54149a4e5e9442307c096cc97c

NLP 中的深度增强学习

1480688777-2663-75df34e4fb0d2e62e7d826a8d-th

一个例子:问答

1480688777-9116-9adf6ea84db6bd1c26fb5fb82eec

问答其实是很难的,回报可能是非零(Non-zero),只有一小部分可能的行动;在一大串的动作之后,你可能只得到一个回报。

1480688778-5794-b0fde4a543c08d91928c563ea4ee

实际上,深度增强学习用于NLP是很难的

1480688778-5321-6f54560a46f4b1b0f2a5a1eaf782

实时翻译

1480688778-1603-fc9f8f0b4b31a4a905b13ebbbe6b

用于解释的语法分析,使用SPINN和SNLI

1480688778-7991-2423bcaf4413a558d829a56195f0

用重复的搜索命令进行信息提取

其他议题

1480688778-1658-915e20af4aa584da2db76d13f59a

1480688779-8652-86bf90f14fd2b596758241da7e3b

低资源学习

1480688779-3563-267472a141b3be8ecee79552ae24

可解释性

1480688779-7447-04bdde954106ac00f0a30416ca90

常识,常识推理

1480688779-8834-f343548c46adb3bb30d3dd2c2346

能从语言学中学到什么

1480688779-3741-7afd5de643a18af9697c003df1e2

最后提醒:本研究中提到的所有神经元指的都是一种有用的工具,任何与真实的神经元形成的类比,都纯属巧合。

1480688780-5416-049ca1754b27b8d8ab979daea2dc

1480688780-9416-5b68665e4adaa6f7be500758f501

 摘自:新智元

感谢支持199IT
我们致力为中国互联网研究和咨询及IT行业数据专业人员和决策者提供一个数据共享平台。

要继续访问我们的网站,只需关闭您的广告拦截器并刷新页面。
滚动到顶部